本地大模型编程实战(27)初探langgraph的流式输出
对于 LLM(大语言模型),流式传输已成为一种越来越受欢迎的功能。其理念是在 LLM 生成令牌时就快速返回,而不是等待创建完整响应后再返回全部内容。 对于简单的场景,流式传输实际上非常容易实现,但当涉及到智能体之类的应用时,它会变得复杂,这些智能体有自己的运行逻辑,可能会阻止我们尝试进行流式传输。 本文将探讨 langchain 的流式输出,后面将实现智能体最终结果的流式输出。 本次演练将全部使用 qwen2.5:7b 开源大模型。 ...