[合集]本地大模型编程实战
此系列文章讲述了:如何在普通电脑上自己写代码完成常见的基于大语言模型能力的任务。 ...
此系列文章讲述了:如何在普通电脑上自己写代码完成常见的基于大语言模型能力的任务。 ...
此系列文章详细的阐述了如何从第一行代码开始搭建一个可以运行完全在本地服务器的RAG(Retrieval Augmented Generation)系统,包含了详细的步骤说明和代码,它是保姆级教程。 它主要包含以下功能: 使用本地大语言模型做语言翻译 使用本地大语言模型做专业领域的知识问答 从系统架构来看,本系统包含了前端、API网关、后台服务三大部分: ...
如果我比别人看得更远,那是因为我站在巨人的肩上。 – 艾萨克·牛顿 不知道您是否像我一样:希望自己能有一个完全本地部署的AI实验室,它有可视化界面,可以与大模型聊天,可以做智能体,还可以提供标准化的接口… Chatbox、Dify、Ollama 与 Qwen(通义千问)大模型完全可以整合在一起,且整合后能形成 “本地模型 + 可视化开发管理 + 多端交互” 的完整 AI 应用链路。四者的定位互补性强,整合核心逻辑是 Ollama 负责本地运行 Qwen 模型 → Dify 提供模型管理与应用开发能力 → Chatbox 作为轻量客户端实现多端交互: 系统/模型 核心定位 关键角色 Ollama 轻量本地大模型运行框架 「模型载体」:简化本地模型部署,支持一键启动 Qwen、Llama 等开源模型,提供 API 接口供外部调用 Qwen(通义千问) 阿里开源大模型(如 Qwen-8B/14B) 「核心能力源」:提供对话、生成、推理等 AI 能力,需依赖 Ollama 或其他框架运行 Dify 开源 LLM 应用开发平台 「开发与管理中枢」:支持接入 Ollama 部署的 Qwen 模型,提供可视化 workflow、RAG 检索、Agent 工具链,可快速搭建 AI 应用(如问答系统、智能助手) Chatbox 多端 AI 客户端 「交互入口」:支持接入 Dify 或 Ollama 的 API,提供桌面(Windows/Mac/Linux)、移动端(iOS/Android)的轻量交互界面,优化用户使用体验 下面我们就一步一步的把这个AI实验室搭建起来。 ...
dify 是一个开源的 LLM 应用开发平台,其核心功能包括: 工作流:可在画布上构建和测试强大的 AI 工作流程。 全面的模型支持:与数百种专有 / 开源 LLMs 及数十种推理提供商和自托管解决方案无缝集成,支持 GPT、Mistral、Llama3、qwen 等及任何与 OpenAI API 兼容的模型。 Prompt IDE:提供直观界面,用于制作提示、比较模型性能及为聊天类应用添加文本转语音等功能。 RAG Pipeline:具备广泛的 RAG 功能,涵盖文档摄入到检索,支持从 PDF、PPT 等常见文档格式提取文本。 Agent 智能体:可基于 LLM 函数调用或 ReAct 定义 Agent,提供 50 多种内置工具如谷歌搜索、DALL・E 等。 LLMOps:能监测和分析应用日志与性能,基于生产数据和注释持续改进提示、数据集及模型。 Backend-as-a-Service:所有功能都提供 API,便于将 Dify 集成到自有业务逻辑中。 本文将把详细的讲述搭建 dify 并且用它的 Chatflow 搭建智能体应用的过程。 ...
由于大部分AI平台提供的API/接口都兼容 OpenAI API ,所以我们可以使用 OpenAI SDK 实现通用的 LLM(大语言模型) 客户端。 关于 OpenAI API 更多内容,可参考 程序员应该熟悉的概念(2)OpenAI API 本文讲述了如何实现一个简单的大模型客户端。 ...