程序员应该熟悉的概念(6)Fine-tuning和RAG
大语言模型/LLM 通常是由海量通用知识(如语法、常识、逻辑)训练的,在面对具体场景(如医疗问诊、法律文书生成)时,能力往往不足。 Fine-tuning/微调 正是为解决这一问题而生的核心技术,其本质是在预训练模型的基础上,用特定领域 / 任务的小数据集进一步训练,让模型 适配具体需求,最终输出更精准、更贴合场景的结果。 ...
大语言模型/LLM 通常是由海量通用知识(如语法、常识、逻辑)训练的,在面对具体场景(如医疗问诊、法律文书生成)时,能力往往不足。 Fine-tuning/微调 正是为解决这一问题而生的核心技术,其本质是在预训练模型的基础上,用特定领域 / 任务的小数据集进一步训练,让模型 适配具体需求,最终输出更精准、更贴合场景的结果。 ...
MoE(Mixture of Experts,专家混合模型))是当前大模型(尤其是 GPT-4、Gemini、Mixtral、DeepSeek 等)架构中非常核心的一个概念。 MoE 的思想非常直白:不同的 专家/Expert 只负责处理自己擅长的那一类输入,而不是让整个模型的所有参数都去处理所有任务。 也就是说: 一个 MoE 模型内部其实包含了很多个“子网络”(这些子网络叫做 专家/Expert); 每次输入一句话或一段文本时,模型不会激活所有 专家/Expert,而是通过一个 路由/Router来挑选 最合适的几个专家; 只有被选中的那几个 专家/Expert 会参与这次计算,从而节省大量算力。 ...
在上一篇文章 MCP简介 中,我们对 MCP(Model Context Protocol) 有了一个概念上的认识,本文将更加深入的介绍 MCP 的架构和功能。 ...
MCP(Model Context Protocol) 是由 Anthropic 在 2024 年 11 月提出并开源的一个协议标准,目的是统一 AI 模型(尤其是大语言模型) 与外部资源 / 工具 / 数据源之间的交互方式。 MCP 被比喻为 AI 的 “USB-C 接口” —— 就像 USB-C 为各种外设提供统一接口一样,MCP 为 AI 模型与各类资源之间提供统一、标准化的接口。 OpenAI 在 2025 年 3 月宣布其 Agents SDK 已支持 MCP,从而使 OpenAI 的生态也兼容该协议。 多家厂商和工具也在采纳 MCP,包括 IDE、插件、代理框架、知识库 / 应用平台等。 ...
大名鼎鼎的 OpenAI 发布之后,其 OpenAI API规范 逐渐成了事实上的工业标准,很多大模型API都兼容这个规范。这也就意味着:OpenAI的SDK可以使用很多大模型。 兼容 OpenAI API规范 的大模型API包括:百炼、本地部署的Ollama、Anthropic(Claude 系列)、Mistral、Google DeepMind (Gemini)、Cohere、xAI(Elon Musk 团队)… 下面我们简单了解一下 OpenAI API规范。 ...