AI·你所爱 | Linxkon@gmail.com
  • 首页
  • 归档
  • 分类
  • 标签
  • 关于
谁是最强大模型--权威大模型榜单整理

谁是最强大模型--权威大模型榜单整理

大模型的发展日新月异,那到底哪个模型更强呢,不同模型又有哪些各自擅长的领域呢?这里整理几个比较权威的LLM评测榜单和数据集供诸君参考.
2024-06-25
大模型
#大模型 #排行榜
RAG加分神器:embedding与rerank

RAG加分神器:embedding与rerank

基于 Retrieval Augmented Generation (RAG) 技术的效果取决于两个关键因素: 文本嵌入及语义提取的性能: 这个环节负责将输入文本转换为有意义的语义表示向量。 嵌入算法的准确性和鲁棒性直接影响后续的搜索和排序效果。 重排序模块的性能: 这个环节负责根据语义相似度对检索到的相关文本进行排序。 排序算法的效果直接决定了包含正确答案的文本是否能
2024-06-10
RAG
#大模型 #原理
Tmux常用命令整理

Tmux常用命令整理

用远程服务器进行模型训练和程序运行,最蛋疼的一点就是程序运行到一半,挂掉了,前功尽弃。Tmux很好的解决了这个需求点。
2024-06-05
#linux #tmux
ollama部署常见问题解答

ollama部署常见问题解答

本文将分为以下章节对 Ollama 进行介绍: Ollama 基本介绍,它的作用是什么 Ollama 软件安装、一些常用的系统参数设置 Ollama 管理本地已有大模型(包括终端对话界面) Ollama 导入模型到本地的三种方式:直接从 Ollama 远程仓库拉取、通过 GGUF 模型权重文件导入到本地、通过 safetensors 模型权限文件导入到本地 基于 WebUI 部署
2024-06-01
大模型部署
#大模型
人工智能领域常见概念中英文汇编

人工智能领域常见概念中英文汇编

人工智能领域常见概念中英文汇编 本文动态收入总结AI领域的一些常见英文概念及其对应的中文释义
2024-05-30
AI
#笔记整理 #基础知识 #中英文
高效微调统一框架——LLAMA-FACTORY技术点详解

高效微调统一框架——LLAMA-FACTORY技术点详解

高效的微调对于将大语言模型 (LLM) 适应下游任务至关重要。然而,在不同模型上实施这些方法需要付出不小的努力。 LLAMA-FACTORY是一个集成一套高效训练方法的统一框架。它允许用户通过内置的 Web UI LLAMA-BOARD 灵活地自定义 100 多个 LLM 的微调,无需编码。 (本文旨在说明LLAMA-FACTORY引入了NLP领域的哪些训练微调技术及其优势应用领域,项目部署与应用
2024-05-21
NLP
#工具框架 #NLP #效率工具
从头开始实现llama3

从头开始实现llama3

都说大模型是黑箱玄学,这次让我们打开黑箱,一起来探索它内部的世界。
2024-05-20
大模型
#笔记整理 #原理 #nlp
大模型训练Guidelines

大模型训练Guidelines

根据scaling law,模型越大,高质量数据越多,效果越好。 但还有一个很直观的情况,随着预训练样本的质量不断提升,训练手段的优化。新的模型,往往效果能轻松反超参数量两倍于它的模型。
2024-05-18
大模型
#大模型 #模型训练
【B站】大模型之路-从分治法至端到端,再到存算训一体

【B站】大模型之路-从分治法至端到端,再到存算训一体

大模型发展之路--从分治法至端到端,再到存算训一体 安克创新CEO阳萌对人工智能过去、现在和未来的思考。他认为大模型和transformer只是阶段性的算法实现,未来一定是仿生算法的大趋势。他还谈到了分治法作为经典的范式有其明显的局限,而端到端的方案是人类理性解决问题的必经之路。他指出,人工智能领域的范式每五到十年就会出现一个全新的范式,存算一体已经成为业界新宠。
2024-05-12
B站
#深度学习 #大模型 #视频分享
一首歌的时间部署本地Llama3大模型

一首歌的时间部署本地Llama3大模型

LLaMA3真的是相当相当炸裂啊!远超过去的体验!看数据Llama3-8B超过Mistra-7BMMLU10分;70B超过Claude3Sonet3分。 这是一个惊人的成绩,一个开源模型超过闭源模型这样多。我只能说Meta是真正的OpenAI。自从它从Meta这个邪路上转正后,在OpenAI的路上一骑绝尘了! 不废话,动手来给自己的电脑部署下吧。
2024-05-11
categories
#大模型 #项目部署
1…45678…12

搜索

Hexo Fluid
总访问量 次 访客量 次