admin管理员组

文章数量:1130349

一、安装Ollama

安装包下载:Ollama

 注意:安装包直接默认C盘安装,修改路径需将安装包放在安装路径处,然后在安装路径打开cmd控制台,输入以下命令后回车执行

OllamaSetup.exe /DIR=安装路径
# 示例
OllamaSetup.exe /DIR=D:\Software\Ollama

安装后默认运行,可在任务栏看到

二、部署AI模型

1、模型地址:Ollama

点击【deepseek-r1】进入模型选择页面,选择合适的模型版本后点击复制按钮复制命令行

# 部分模型命令

# DeepSeek-R1-Distill-Qwen-1.5B(1.1GB,适用于一般文字编辑使用)
ollama run deepseek-r1:1.5b

# DeepSeek-R1-Distill-Qwen-7B(4.7GB)
ollama run deepseek-r1:7b

# DeepSeek-R1-Distill-Llama-8B(4.9GB)
ollama run deepseek-r1:8b

# DeepSeek-R1-Distill-Qwen-14B(9GB)
ollama run deepseek-r1:14b

# DeepSeek-R1-Distill-Qwen-32B(20GB)
ollama run deepseek-r1:32b

# DeepSeek-R1-Distill-Llama-70B(43GB)
ollama run deepseek-r1:70b

# DeepSeek-R1(404GB)
ollama run deepseek-r1:671b

2、在合适文件创建文件夹,进入改文件夹下打开cmd控制台,执行下载模型命令,如:

ollama pull deepseek-r1:1.5b

等待出现success则下载完成

3、运行模型,开始对话

ollama run deepseek-r1:1.5b

三、常用ollama命令

# 查看已下载模型
ollama list

# 拉去模型
ollama pull 模型名称

# 运行模型
ollama run 模型名称

# 卸载模型
ollama rm 模型名称

# 退出聊天
/bye

拓展:安装Ollama为指定安装路径时,迁移模型至D盘

右键【此电脑】图标,点击属性

点击【高级系统配置】打开系统属性面板

点击【环境变量】

设置系统变量,添加一条变量名为OLLAMA_MODELS的系统变量,路径为迁移目标路径,如:D:\Software\Ollama\models

找到ollama的默认安装路径:C:\Users\47558\.ollama\models

将models文件夹剪切到D:\Software\Ollama文件夹下

blobs文件夹保存模型文件

mainfests文件夹保存模型的版本号

cmd控制台查看模型列表成功即迁移成功

四、可视化配置,安装chatbox

下载地址:Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载

下载后双击安装包安装chatbox

运行chatbox,选择【使用自己的API Key或本地模型】

选择Ollama API

选择一个已下载的Deepseek模型

点击保存即可使用

拓展: 连接远程Ollama服务

首选退出ollama,然后打开系统环境变量配置

添加两个用户环境变量

OLLAMA_HOST=0.0.0.0
OLLAMA_ORIGINS=*

重启ollama服务

在 Chatbox 中,将 API Host 设置为:Ollama服务IP地址(默认端口号为11434)

http://192.168.XX.XX:11434

五、可视化配置,安装浏览器插件Page Assist

以下提供chrome浏览器安装使用教程

访问chrome应用商城:https://chromewebstore.google/?utm_source=ext_app_menu

搜索Page Assist添加拓展到chrome

在拓展程序可以点击打开

点击右上角【设置】

在一般设置中可以设置语言为【简体中文】

在ollama设置界面可以根据需求进行设置

聊天界面头部可以选择一个已下载的deepseek模型

在【一般设置】中的【管理网络搜索】可以设置联网所用搜索引擎,目前测试baidu可以连上,总搜索结果设置越大,搜索范围越广

需要联网搜索时,需打开联网按钮

一、安装Ollama

安装包下载:Ollama

 注意:安装包直接默认C盘安装,修改路径需将安装包放在安装路径处,然后在安装路径打开cmd控制台,输入以下命令后回车执行

OllamaSetup.exe /DIR=安装路径
# 示例
OllamaSetup.exe /DIR=D:\Software\Ollama

安装后默认运行,可在任务栏看到

二、部署AI模型

1、模型地址:Ollama

点击【deepseek-r1】进入模型选择页面,选择合适的模型版本后点击复制按钮复制命令行

# 部分模型命令

# DeepSeek-R1-Distill-Qwen-1.5B(1.1GB,适用于一般文字编辑使用)
ollama run deepseek-r1:1.5b

# DeepSeek-R1-Distill-Qwen-7B(4.7GB)
ollama run deepseek-r1:7b

# DeepSeek-R1-Distill-Llama-8B(4.9GB)
ollama run deepseek-r1:8b

# DeepSeek-R1-Distill-Qwen-14B(9GB)
ollama run deepseek-r1:14b

# DeepSeek-R1-Distill-Qwen-32B(20GB)
ollama run deepseek-r1:32b

# DeepSeek-R1-Distill-Llama-70B(43GB)
ollama run deepseek-r1:70b

# DeepSeek-R1(404GB)
ollama run deepseek-r1:671b

2、在合适文件创建文件夹,进入改文件夹下打开cmd控制台,执行下载模型命令,如:

ollama pull deepseek-r1:1.5b

等待出现success则下载完成

3、运行模型,开始对话

ollama run deepseek-r1:1.5b

三、常用ollama命令

# 查看已下载模型
ollama list

# 拉去模型
ollama pull 模型名称

# 运行模型
ollama run 模型名称

# 卸载模型
ollama rm 模型名称

# 退出聊天
/bye

拓展:安装Ollama为指定安装路径时,迁移模型至D盘

右键【此电脑】图标,点击属性

点击【高级系统配置】打开系统属性面板

点击【环境变量】

设置系统变量,添加一条变量名为OLLAMA_MODELS的系统变量,路径为迁移目标路径,如:D:\Software\Ollama\models

找到ollama的默认安装路径:C:\Users\47558\.ollama\models

将models文件夹剪切到D:\Software\Ollama文件夹下

blobs文件夹保存模型文件

mainfests文件夹保存模型的版本号

cmd控制台查看模型列表成功即迁移成功

四、可视化配置,安装chatbox

下载地址:Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载

下载后双击安装包安装chatbox

运行chatbox,选择【使用自己的API Key或本地模型】

选择Ollama API

选择一个已下载的Deepseek模型

点击保存即可使用

拓展: 连接远程Ollama服务

首选退出ollama,然后打开系统环境变量配置

添加两个用户环境变量

OLLAMA_HOST=0.0.0.0
OLLAMA_ORIGINS=*

重启ollama服务

在 Chatbox 中,将 API Host 设置为:Ollama服务IP地址(默认端口号为11434)

http://192.168.XX.XX:11434

五、可视化配置,安装浏览器插件Page Assist

以下提供chrome浏览器安装使用教程

访问chrome应用商城:https://chromewebstore.google/?utm_source=ext_app_menu

搜索Page Assist添加拓展到chrome

在拓展程序可以点击打开

点击右上角【设置】

在一般设置中可以设置语言为【简体中文】

在ollama设置界面可以根据需求进行设置

聊天界面头部可以选择一个已下载的deepseek模型

在【一般设置】中的【管理网络搜索】可以设置联网所用搜索引擎,目前测试baidu可以连上,总搜索结果设置越大,搜索范围越广

需要联网搜索时,需打开联网按钮

本文标签: DeepSeekWindows