admin管理员组文章数量:1130349
一、安装Ollama
安装包下载:Ollama
注意:安装包直接默认C盘安装,修改路径需将安装包放在安装路径处,然后在安装路径打开cmd控制台,输入以下命令后回车执行
OllamaSetup.exe /DIR=安装路径
# 示例
OllamaSetup.exe /DIR=D:\Software\Ollama
安装后默认运行,可在任务栏看到
二、部署AI模型
1、模型地址:Ollama
点击【deepseek-r1】进入模型选择页面,选择合适的模型版本后点击复制按钮复制命令行
# 部分模型命令
# DeepSeek-R1-Distill-Qwen-1.5B(1.1GB,适用于一般文字编辑使用)
ollama run deepseek-r1:1.5b
# DeepSeek-R1-Distill-Qwen-7B(4.7GB)
ollama run deepseek-r1:7b
# DeepSeek-R1-Distill-Llama-8B(4.9GB)
ollama run deepseek-r1:8b
# DeepSeek-R1-Distill-Qwen-14B(9GB)
ollama run deepseek-r1:14b
# DeepSeek-R1-Distill-Qwen-32B(20GB)
ollama run deepseek-r1:32b
# DeepSeek-R1-Distill-Llama-70B(43GB)
ollama run deepseek-r1:70b
# DeepSeek-R1(404GB)
ollama run deepseek-r1:671b
2、在合适文件创建文件夹,进入改文件夹下打开cmd控制台,执行下载模型命令,如:
ollama pull deepseek-r1:1.5b
等待出现success则下载完成
3、运行模型,开始对话
ollama run deepseek-r1:1.5b
三、常用ollama命令
# 查看已下载模型
ollama list
# 拉去模型
ollama pull 模型名称
# 运行模型
ollama run 模型名称
# 卸载模型
ollama rm 模型名称
# 退出聊天
/bye
拓展:安装Ollama为指定安装路径时,迁移模型至D盘
右键【此电脑】图标,点击属性
点击【高级系统配置】打开系统属性面板
点击【环境变量】
设置系统变量,添加一条变量名为OLLAMA_MODELS的系统变量,路径为迁移目标路径,如:D:\Software\Ollama\models
找到ollama的默认安装路径:C:\Users\47558\.ollama\models
将models文件夹剪切到D:\Software\Ollama文件夹下
blobs文件夹保存模型文件
mainfests文件夹保存模型的版本号
cmd控制台查看模型列表成功即迁移成功
四、可视化配置,安装chatbox
下载地址:Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载
下载后双击安装包安装chatbox
运行chatbox,选择【使用自己的API Key或本地模型】
选择Ollama API
选择一个已下载的Deepseek模型
点击保存即可使用
拓展: 连接远程Ollama服务
首选退出ollama,然后打开系统环境变量配置
添加两个用户环境变量
OLLAMA_HOST=0.0.0.0
OLLAMA_ORIGINS=*
重启ollama服务
在 Chatbox 中,将 API Host 设置为:Ollama服务IP地址(默认端口号为11434)
http://192.168.XX.XX:11434
五、可视化配置,安装浏览器插件Page Assist
以下提供chrome浏览器安装使用教程
访问chrome应用商城:https://chromewebstore.google/?utm_source=ext_app_menu
搜索Page Assist添加拓展到chrome
在拓展程序可以点击打开
点击右上角【设置】
在一般设置中可以设置语言为【简体中文】
在ollama设置界面可以根据需求进行设置
聊天界面头部可以选择一个已下载的deepseek模型
在【一般设置】中的【管理网络搜索】可以设置联网所用搜索引擎,目前测试baidu可以连上,总搜索结果设置越大,搜索范围越广
需要联网搜索时,需打开联网按钮
一、安装Ollama
安装包下载:Ollama
注意:安装包直接默认C盘安装,修改路径需将安装包放在安装路径处,然后在安装路径打开cmd控制台,输入以下命令后回车执行
OllamaSetup.exe /DIR=安装路径
# 示例
OllamaSetup.exe /DIR=D:\Software\Ollama
安装后默认运行,可在任务栏看到
二、部署AI模型
1、模型地址:Ollama
点击【deepseek-r1】进入模型选择页面,选择合适的模型版本后点击复制按钮复制命令行
# 部分模型命令
# DeepSeek-R1-Distill-Qwen-1.5B(1.1GB,适用于一般文字编辑使用)
ollama run deepseek-r1:1.5b
# DeepSeek-R1-Distill-Qwen-7B(4.7GB)
ollama run deepseek-r1:7b
# DeepSeek-R1-Distill-Llama-8B(4.9GB)
ollama run deepseek-r1:8b
# DeepSeek-R1-Distill-Qwen-14B(9GB)
ollama run deepseek-r1:14b
# DeepSeek-R1-Distill-Qwen-32B(20GB)
ollama run deepseek-r1:32b
# DeepSeek-R1-Distill-Llama-70B(43GB)
ollama run deepseek-r1:70b
# DeepSeek-R1(404GB)
ollama run deepseek-r1:671b
2、在合适文件创建文件夹,进入改文件夹下打开cmd控制台,执行下载模型命令,如:
ollama pull deepseek-r1:1.5b
等待出现success则下载完成
3、运行模型,开始对话
ollama run deepseek-r1:1.5b
三、常用ollama命令
# 查看已下载模型
ollama list
# 拉去模型
ollama pull 模型名称
# 运行模型
ollama run 模型名称
# 卸载模型
ollama rm 模型名称
# 退出聊天
/bye
拓展:安装Ollama为指定安装路径时,迁移模型至D盘
右键【此电脑】图标,点击属性
点击【高级系统配置】打开系统属性面板
点击【环境变量】
设置系统变量,添加一条变量名为OLLAMA_MODELS的系统变量,路径为迁移目标路径,如:D:\Software\Ollama\models
找到ollama的默认安装路径:C:\Users\47558\.ollama\models
将models文件夹剪切到D:\Software\Ollama文件夹下
blobs文件夹保存模型文件
mainfests文件夹保存模型的版本号
cmd控制台查看模型列表成功即迁移成功
四、可视化配置,安装chatbox
下载地址:Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载
下载后双击安装包安装chatbox
运行chatbox,选择【使用自己的API Key或本地模型】
选择Ollama API
选择一个已下载的Deepseek模型
点击保存即可使用
拓展: 连接远程Ollama服务
首选退出ollama,然后打开系统环境变量配置
添加两个用户环境变量
OLLAMA_HOST=0.0.0.0
OLLAMA_ORIGINS=*
重启ollama服务
在 Chatbox 中,将 API Host 设置为:Ollama服务IP地址(默认端口号为11434)
http://192.168.XX.XX:11434
五、可视化配置,安装浏览器插件Page Assist
以下提供chrome浏览器安装使用教程
访问chrome应用商城:https://chromewebstore.google/?utm_source=ext_app_menu
搜索Page Assist添加拓展到chrome
在拓展程序可以点击打开
点击右上角【设置】
在一般设置中可以设置语言为【简体中文】
在ollama设置界面可以根据需求进行设置
聊天界面头部可以选择一个已下载的deepseek模型
在【一般设置】中的【管理网络搜索】可以设置联网所用搜索引擎,目前测试baidu可以连上,总搜索结果设置越大,搜索范围越广
需要联网搜索时,需打开联网按钮
版权声明:本文标题:Deepseek本地部署(Windows) 内容由热心网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:https://it.en369.cn/jiaocheng/1760050964a2842800.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。


发表评论