可能是最简单的本地化 DeepSeek+个人知识库实现方案
2026/5/4 12:39:24 网站建设 项目流程

“本地化大模型+知识库”介绍

其实是一套本地化的 RAG 的方案,整体技术架构如下图所示:

[图片来源见文末]图中重要的三个组件:

1-LLM我们使用 Ollama 下载到本地;

2-文本切片Embedding后放入向量数据库的过程与组件, 使用 AnythingLLM 来提供;

3-Embedding 模型可以使用 AnythingLLM 自带的,也可以使用本地部署的。


使用 Ollama 下载 LLM

在 Ollama 的官网(https://ollama.com)下载并安装 Ollama 。

安装后,根据你本地硬件的配置,选择合适的模型下载。

对于 DeepSeek-R1 模型,可以参考下图中对显存的需求,选择不同模型。我选择的是一个7B 的模型。

选择好模型后,复制这里的命令行,粘贴至终端。Ollama 开始下载:

为提高后续的检索精度,我使用 Ollama 又下载了一个 Embedding 模型,Bge-m3。

AnythingLLM 自带了一个嵌入模型,所以这里你也可以不下载,用这个自带的嵌入模型。

到这里,我们使用 Ollama 成功下载了需要的两个模型:


安装并配置 AnythingLLM

从 AnythingLLM 的官网(https://anythingllm.com/)下载适合你系统的 AnythingLLM:

安装过程比较缓慢,耐心等待即可。

安装后进入欢迎界面,点击“开始”按钮:

之后的配置可以先不管,一直向右滑动:

进入到工作区界面,点击配置按钮:

Step1:LLM 配置

找到 “LLM 首选项”,选择LLM 提供商为 Ollama,会自动找到我们已经拉取的DeepSeek-R1: 7B模型:

配置后之后点“ Save Change ”。

向量数据库选择默认的即可。

Step2: Embedding 配置

嵌入引擎提供商选择 Ollama,配置 Embedding 模型为 bge-m3。

如果你没有拉取 bge-m3,保持默认的AnythingLLM Embedder就可以。

Step3:工作区配置

回到工作区界面,新建一个工作区,然后点击上传按钮:

点击这里,选择你需要放到知识库的本地文档。

之后,选中知识库中的文档,点击“ Move to Workspace”,将文档移入工作区:

工作区这时已经看得到放进去的文档了。保存并进行 Embed:

这个过程中,看得到 GPU 已经开始疯狂工作了

嵌入完成后,回到工作区,就可以针对我们的文档进行提问与分析了。


测试,及使用云端模型

根据我们的文档提问。推理速度很快,但结果并不太好:

因为我们本地算力有限,模型太小,性能上差很多。

使用云端模型试试。

回到设置,我们配置 LLM 首选项为 DeepSeek,填入一个可用的 API,选择推理模型:

同样的问题再测试一下,结果(仅截取部分)要比我们的本地模型好得多,而且初步来看,答案相关性和上下文相关性都更高:


总结

以上就是使用 Ollama + Anything 构建本地化大模型+知识库的极简方案,希望能帮到大家。

需要注意的是,并非所有的业务场景都需要完全本地化部署

在本地没有足够算力,又需要文档不出域的情况下,只要保证文档存储和检索过程在本地,即使大模型在云端,也可通过技术手段(如仅向云端发送查询向量或脱敏后的文本)实现合规;这也是一种很常见的技术方案。

读者福利:如果大家对大模型感兴趣,这套大模型学习资料一定对你有用

对于0基础小白入门:

如果你是零基础小白,想快速入门大模型是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。

作为一名老互联网人,看着AI越来越火,也总想为大家做点啥。干脆把我这几年整理的AI大模型干货全拿出来了。
包括入门指南、学习路径图、精选书籍、视频课,还有我录的一些实战讲解。全部免费,不搞虚的。
学习从来都是自己的事,我能做的就是帮你把路铺平一点。资料都放在下面了,有需要的直接拿,能用到多少就看你自己了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以点击文章最下方的VX名片免费领取【保真100%】

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询