admin管理员组文章数量:1031673
基于 DeepSeek R1 搭建自己的大模型知识库
基于 coze 搭建自己的知识库,有两个问题:
- 信息安全问题;
- 数据容量问题;
基于本地环境搭建自己的大模型知识库,这里选取的是 DeepSeek R1 大模型。
安装 ollama
Ollama 作为本地大模型部署的 “瑞士军刀”,在易用性和跨平台兼容性上表现突出,尤其适合个人开发者和小型团队快速验证模型想法。
可以从链接:/ 进行下载
也可以从命令下载
代码语言:javascript代码运行次数:0运行复制### Linux/macOS
curl .sh | sh
# Windows
winget install Ollama.Ollama
查看 ollama 看是否安装成功
安装大模型
这里安装的是 Deepseek-R1
大模型机器配置要求
ollama 常用命令
- 模型加载 ollama run deepseek-r1:32b
- 查看已安装模型 ollama list
- 如何卸载大模型 ollama rm deepseek-r1:32b
安装可视化工具 从链接下载:/
配置LLM Anything
- 配置大模型 这里选择的是刚部署的 DeepSeek-R1
使用 Anything LLM 时,嵌入器(Embedder)的首选项配置直接影响语义理解、检索效率和多模态交互的效果。 这里配置的是:nomic-embed-text 任务适配优先
- 语义检索:选择密集嵌入模型(如 bge-m3、nomic-embed-text),支持长文本(8192 tokens)和多语言检索。
- 关键字匹配:搭配稀疏嵌入模型(如 BM25),提升精确关键词定位能力。
- 混合搜索:通过 LangChain 等框架组合密集与稀疏嵌入,动态调整权重(如 weights=(0.49, 0.51))。
- 资料上传
演示
基于 DeepSeek R1 搭建自己的大模型知识库
基于 coze 搭建自己的知识库,有两个问题:
- 信息安全问题;
- 数据容量问题;
基于本地环境搭建自己的大模型知识库,这里选取的是 DeepSeek R1 大模型。
安装 ollama
Ollama 作为本地大模型部署的 “瑞士军刀”,在易用性和跨平台兼容性上表现突出,尤其适合个人开发者和小型团队快速验证模型想法。
可以从链接:/ 进行下载
也可以从命令下载
代码语言:javascript代码运行次数:0运行复制### Linux/macOS
curl .sh | sh
# Windows
winget install Ollama.Ollama
查看 ollama 看是否安装成功
安装大模型
这里安装的是 Deepseek-R1
大模型机器配置要求
ollama 常用命令
- 模型加载 ollama run deepseek-r1:32b
- 查看已安装模型 ollama list
- 如何卸载大模型 ollama rm deepseek-r1:32b
安装可视化工具 从链接下载:/
配置LLM Anything
- 配置大模型 这里选择的是刚部署的 DeepSeek-R1
使用 Anything LLM 时,嵌入器(Embedder)的首选项配置直接影响语义理解、检索效率和多模态交互的效果。 这里配置的是:nomic-embed-text 任务适配优先
- 语义检索:选择密集嵌入模型(如 bge-m3、nomic-embed-text),支持长文本(8192 tokens)和多语言检索。
- 关键字匹配:搭配稀疏嵌入模型(如 BM25),提升精确关键词定位能力。
- 混合搜索:通过 LangChain 等框架组合密集与稀疏嵌入,动态调整权重(如 weights=(0.49, 0.51))。
- 资料上传
演示
本文标签: 基于 DeepSeek R1 搭建自己的大模型知识库
版权声明:本文标题:基于 DeepSeek R1 搭建自己的大模型知识库 内容由热心网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:http://it.en369.cn/jiaocheng/1747873989a2220945.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论