本文概述了基于langchian框架和对话式增强生成(Conversational RAG(Retrieval Augmented Generation))技术实现知识问答。
具体来说,系统自动记录聊天历史,并把它作为上下文提供给大模型,这样它让大模型产生了“记忆”,可以“理解”和关联上下文,体验更好。
此样例程序使用本地部署的nomic-embed-text模型做嵌入检索,使用本地部署的llama3.1做回答内容生成。

准备

  1. 部署本地大模型 可使用以下命令拉取大模型:
ollama pull llama3.1
ollama pull nomic-embed-text:latest

部署本地大模型的详细步骤可参考:在langchian中使用本地部署的llama3.1大模型

  1. 安装依赖,在VS Code的 terminal/终端 中执行。
pip install --upgrade langchain langchain-community langchain-chroma bs4

嵌入

使用本地部署的nomic-embed-text模型做嵌入,并且将生成的矢量存储在本地。

import bs4

from langchain.vectorstores import Chroma
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.embeddings import OllamaEmbeddings
from langchain_ollama import ChatOllama
from langchain_core.prompts import ChatPromptTemplate
from langchain.document_loaders import WebBaseLoader
from langchain.chains import create_retrieval_chain
from langchain.chains.combine_documents import create_stuff_documents_chain
from langchain_core.prompts import MessagesPlaceholder
from langchain.chains import create_history_aware_retriever
from langchain_core.messages import AIMessage, HumanMessage
from langchain_core.runnables.history import RunnableWithMessageHistory

persist_directory = 'chroma_langchain_db_test_2'

# 返回本地模型的嵌入。在存储嵌入和查询时都需要用到此嵌入函数。
def  get_embedding():
    # nomic-embed-text: 一个高性能开放嵌入模型,具有较大的标记上下文窗口。
    # 安装:ollama pull nomic-embed-text:latest
    # 这个模型只有274M,但实际做嵌入和检索时,感觉比llama3这样的大模型还要好。
    embeddings = OllamaEmbeddings(model="nomic-embed-text")
    return embeddings

# 返回本地大模型
def get_llm():
    # temperature:用于控制生成语言模型中生成文本的随机性和创造性。
    # 当temperature值较低时,模型倾向于选择概率较高的词,生成的文本更加保守和可预测,但可能缺乏多样性和创造性。
    # 当temperature值较高时,模型选择的词更加多样化,可能会生成更加创新和意想不到的文本,但也可能引入语法错误或不相关的内容。
    # 当需要模型生成明确、唯一的答案时,例如解释某个概念,较低的temperature值更为合适;如果目标是为了产生创意或完成故事,较高的temperature值可能更有助于生成多样化和有趣的文本。
    return ChatOllama(model="llama3.1",temperature=0)

# 对文本矢量化并存储在本地
def create_db():

    # 加载、分块并索引博客内容来创建检索器。
    loader = WebBaseLoader(
        web_paths=("https://lilianweng.github.io/posts/2023-06-23-agent/",),
        bs_kwargs=dict(
            parse_only=bs4.SoupStrainer(
                class_=("post-content", "post-title", "post-header")
            )
        ),
    )
    docs = loader.load()

    # 用于将长文本拆分成较小的段,便于嵌入和大模型处理。
    # 每个文本块的最大长度是1000个字符,拆分的文本块之间重叠部分为200。
    text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=200)
    texts = text_splitter.split_documents(docs)
   
    # 从文本块生成嵌入,并将嵌入存储在Chroma向量数据库中,同时设置数据库持久化路径。
    vectordb = Chroma.from_documents(documents=texts, embedding=get_embedding(),persist_directory=persist_directory)

    # 将数据库的当前状态写入磁盘,以便在后续重启时加载和使用。
    vectordb.persist()

create_db()

存储和管理聊天记录

  • BaseChatMessageHistory:存储聊天记录
  • RunnableWithMessageHistory:包装BaseChatMessageHistory,将聊天历史记录注入输入并在每次调用后更新它。
from langchain_core.chat_history import BaseChatMessageHistory
from langchain_community.chat_message_histories import ChatMessageHistory
store = {}

# 在会话中记录历史聊天记录
def get_session_history(session_id: str) -> BaseChatMessageHistory:
    if session_id not in store:
        store[session_id] = ChatMessageHistory()
    return store[session_id]

聊天方法

自动记录对话历史。

def get_retriever():
    
    # 使用本地矢量数据库创建矢量数据库实例
    vectorstore = Chroma(persist_directory=persist_directory, embedding_function=get_embedding())

    # 处理基于向量数据库的查询回答任务
    return vectorstore.as_retriever()


# 带有历史记录的聊天方法
# 显然,chat_history可以让模型更能“理解”上下文,做出更加妥帖的回答。
def chat(query,session_id):

    # 构建检索器,将问题放在特定的上下文中进行考虑和回答。
    contextualize_q_system_prompt = (
        "Given a chat history and the latest user question which might reference context in the chat history, "
        "formulate a standalone question which can be understood without the chat history. "
        "Do NOT answer the question, just reformulate it if needed and otherwise return it as is."
    )
    contextualize_q_prompt = ChatPromptTemplate.from_messages(
        [
            ("system", contextualize_q_system_prompt),
            MessagesPlaceholder("chat_history"),
            ("human", "{input}"),
        ]
    )

    llm = get_llm()
    retriever = get_retriever()
    history_aware_retriever = create_history_aware_retriever(
        llm, retriever, contextualize_q_prompt
    )

    # 将检索器纳入问答链,回答问题 
    system_prompt = (
        "You are an assistant for question-answering tasks. "
        "Use the following pieces of retrieved context to answer the question. "
        " If you don't know the answer, say that you don't know. "
        "Use three sentences maximum and keep the answer concise."
        "\n\n"
        "{context}"
    )
    qa_prompt = ChatPromptTemplate.from_messages(
        [
            ("system", system_prompt),
            MessagesPlaceholder("chat_history"),
            ("human", "{input}"),
        ]
    )
    question_answer_chain = create_stuff_documents_chain(llm, qa_prompt)
    rag_chain = create_retrieval_chain(history_aware_retriever, question_answer_chain)
    conversational_rag_chain = RunnableWithMessageHistory(
        rag_chain,
        get_session_history,
        input_messages_key="input",
        history_messages_key="chat_history",
        output_messages_key="answer",
    )

    # 调用链,返回结果
    response = conversational_rag_chain.invoke(
        {"input": query},
        config={"configurable": {"session_id": session_id}},
    )
    return response["answer"]

测试

query1 = "What is Task Decomposition?"
query2 = "What are common ways of doing it?"
session_id = "liu123"

# 测试chat方法
ai_msg_1 = chat(query1, session_id)
print (ai_msg_1)
ai_msg_2 = chat(query2, session_id)
print (ai_msg_2)

# 查看聊天历史记录
for message in store[session_id].messages:
    if isinstance(message, AIMessage):
        prefix = "AI"
    else:
        prefix = "User"

    print(f"{prefix}: {message.content}\n")

执行完毕上述测试方代码后,可以看到系统AI回答的比较准确,并且在自动记录了聊天历史。 问答测试结果

查看完整代码


参考


🪐祝好运🪐