本地大模型编程实战(18)用langgraph实现RAG(Retrieval Augmented Generation,检索增强生成)(2)
本文将使用 langgraph 实现一个简单的 RAG(Retrieval Augmented Generation,检索增强生成) 系统。 使用 qwen2.5 、 deepseek-r1 以及 llama3.1 做实验,用 shaw/dmeta-embedding-zh 做中文嵌入和检索。 ...
本文将使用 langgraph 实现一个简单的 RAG(Retrieval Augmented Generation,检索增强生成) 系统。 使用 qwen2.5 、 deepseek-r1 以及 llama3.1 做实验,用 shaw/dmeta-embedding-zh 做中文嵌入和检索。 ...
本文将用实际代码演练一个简单的 RAG(Retrieval Augmented Generation,检索增强生成) 系统。 使用 qwen2.5 、 deepseek-r1 以及 llama3.1 做实验,用 shaw/dmeta-embedding-zh 做中文嵌入和检索。 ...
本文将基于上一篇文章完善 Agent(智能体) ,主要完善的功能有: 跟踪 Agent(智能体) 的执行过程 记录消息历史 此次我们使用 qwen2.5 做 LLM(大语言模型) 驱动 Agent(智能体) ,使用 shaw/dmeta-embedding-zh 做中文嵌入和检索。 ...
在上一篇文章中,我们实践了如何使用 langchain 创建一个简单的 ReAct Agent(智能体),这次我们升级一下玩法:实现一个可以调用两个 工具 的智能体。 其中一个工具用户查询天气预报,另外一个工具用来查询知识库,实际上该工具实现了 RAG(Retrieval Augmented Generation,检索增强生成)。 此次我们使用 qwen2.5, llama3.1 和 deepseek 。感觉在处理中文方面,感觉 qwen2.5 比 llama3.1 要好一些。 ...
在前面的文章中,我们了解了 LLM(大语言模型) 如何使用 tool(工具) ,现在我们开始进一步,初探 Agent(智能体) 的玩法。 其中的 tool(工具) 用于从矢量数据库中查询信息,这种方式在 RAG(Retrieval Augmented Generation,检索增强生成) 也很常用。在这种场景中,能否准确的查询出有用信息很关键,为此我们本次将使用多种大模型进行对比演练。包括: 多语言通用 LLM: llma3.1 , deepseek-r1 , qwen2.5 专用于嵌入检索的大模型: shaw/dmeta-embedding-zh , milkey/m3e , mxbai-embed-large , nomic-embed-text , all-minilm:33m 了解 Agent(智能体) tool(工具) 与 Agent(智能体) 的区别 工具往往用于大语言模型调用其它功能,比如:搜索、数据库查询、计算等;Agent(智能体) 是一个可以使用 LLM 处理复杂任务的智能体;它通常会决定: 何时调用 tool(工具) 选择哪个工具 处理工具返回的结果 ReAct(Reasoning + Acting) ReAct(Reasoning + Acting)是一种用于 Agent(智能体) 的决策方式,它结合了推理(Reasoning)和行动(Acting),让智能体能更灵活地思考和执行任务。 简单来说,ReAct 让智能体在做事情之前,先思考一下,然后再决定下一步行动,而不是盲目执行。 ReAct 的核心思路 观察环境(Observations):获取当前任务或问题的信息。 推理(Reasoning):分析当前信息,思考如何解决问题。 执行行动(Acting):基于推理结果,采取具体的行动(比如调用工具、查询数据库、与用户交互等)。 循环执行:智能体会不断重复观察 → 推理 → 行动的过程,直到任务完成。 关于 ReAct 的更多内容,请参阅:ReACT Agent Model ...