本地大模型编程实战(04)给文本自动打标签

使用本地大模型可以根据需要给文本打标签,本文介绍了如何基于 langchain 和本地部署的大模型给文本打标签。 本文使用 llama3.1 作为本地大模型,它的性能比非开源大模型要查一下,不过在我们可以调整提示词后,它也基本能达到要求。 ...

一月 27, 2025 · 2 分钟 · 火云

本地大模型编程实战(03)语义检索(2)

上一篇文章: 本地大模型编程实战(02)语义检索(1) 详细介绍了如何使用 langchain 实现语义检索,为了演示方便,使用的是 langchain 提供的内存数据库。 在实际工作中,更多的使用场景是将矢量化的数据物理存储下来,在查询的时候在从存储介质中读取矢量数据进行查询,不会每次使用矢量数据时都必须想做嵌入。 本文描述了如何使用 Chroma 对csv数据进行矢量化,并且将矢量存储在硬盘中,未来查询矢量数据时,直接从硬盘中读取矢量数据进行查询。 另外,如果数据量大一些,矢量化数据是很花时间的,我们将使用进度条显示嵌入csv的进度。 ...

一月 26, 2025 · 1 分钟 · 火云

本地大模型编程实战(02)语义检索(1)

我们在百度、必应、谷歌等搜索引擎中使用的检索都是基于字符串的:用户输入字符串后,搜索引擎先对搜索内容进行分词,然后在已经进行了倒排索引的巨大数据库中找出最符合用户要求的结果。 语义检索与其主要的区别是:它根据文本的真正含义进行搜索,其基本思路是将待检索的内容都转变成矢量(这个过程也叫做嵌入),转化矢量的基本原则是:语义相近的内容距离更近、相似性更高。 当用户输入检索内容时,也是先把检索内容变成矢量,然后去矢量数据库中找到最相似的文档。这样检索出来的结果并不依据字面的意思,而是依据语义的相似度。 本文描述了如何使用 langchain 和 大语言模型 以及 矢量数据库 完成pdf内容的语义检索。 在对内容进行矢量化时使用了 nomic-embed-text,这个模型个头小,英文嵌入效果不错。 后面还将涉及到以下内容: 文档和文档加载器 文本分割器 嵌入 向量存储和检索器 ...

一月 25, 2025 · 5 分钟 · 火云

基于langchain和本地大模型以及会话式检索增强生成技术实现知识问答

本文概述了基于langchian框架和对话式增强生成(Conversational RAG(Retrieval Augmented Generation))技术实现知识问答。 具体来说,系统自动记录聊天历史,并把它作为上下文提供给大模型,这样它让大模型产生了“记忆”,可以“理解”和关联上下文,体验更好。 此样例程序使用本地部署的nomic-embed-text模型做嵌入检索,使用本地部署的llama3.1做回答内容生成。 ...

十月 10, 2024 · 3 分钟 · 火云

基于langchain和本地大模型以及会话式检索增强生成技术实现知识问答

本文讲述了基于langchian框架,使用本地部署的nomic-embed-text模型做嵌入检索、llama3.1做回答内容生成的知识问答系统实例。 会话式检索增强生成,即:Conversational RAG。 nomic-embed-text:一个高性能开放嵌入模型,具有较大的标记上下文窗口。这个模型只有274M,但实际做嵌入和检索时,感觉比llama3好*。 通过对比测试使用历史聊天记录和不使用历史聊天记录两种情况,我们可以明显看出来使用历史聊天记录的优点:它让大模型产生了“记忆”,可以“理解”和关联上下文,体验更好。 ...

十月 9, 2024 · 3 分钟 · 火云