admin管理员组文章数量:1130349
文章目录
-
- 前言
- 1.安装Container Manager
- 2. 启动ssh功能
- 3. ssh连接黑群晖
- 4. 安装Ollama
- 5. 安装deepseek模型
- 6. 安装open-webui图形界面
- 7. 安装内网穿透
-
- 7.1 下载cpolar套件
- 7.2 配置群辉虚拟机
- 7.3 配置公网地址
-
- 小结
- 7.4 配置固定公网地址
- 总结
前言
如果你是NAS发烧友,对黑群晖系统一定不会感到陌生。利用家里的闲置电脑搭建一套黑群晖,不仅能解决日常的存储问题,还能让你体验到DIY的乐趣。但说到最近最火的技术话题,非Deepseek AI大模型莫属了!不过,热度带来的服务器拥堵问题让人头疼不已。今天,我们就来揭秘如何在黑群晖上轻松部署Deepseek,享受专属AI服务!别忘了,有了cpolar内网穿透工具,即使没有公网IP或复杂的路由器设置,也能随时随地远程访问你的黑群晖系统和各项服务,是不是超级酷炫?快跟着我一起来试试吧!
1.安装Container Manager
首先,我们需要准备好一台安装了黑群晖系统的主机,不会安装的小伙伴可以参考一下这篇文章,从零开始在Windows使用VMware虚拟机安装黑群晖7.2系统并实现远程访问
首先访问黑群晖web管理界面(http://黑群晖主机IP+端口号)打开群晖的套件中心,先安装好Container Manager:
2. 启动ssh功能
打开群晖控制面板,终端机和SNMP,在“启动SSH功能”处打勾,端口号默认22,点击应用:
3. ssh连接黑群晖
在电脑上打开CMD或Powershell等SSH工具,填写黑群晖的IP地址,SSH端口,群晖管理员账号,输入管理员密码登录:
PS:黑群晖的IP在群晖助手中查看:
然后输入 sudo -i 回车,再次输入管理员密码回车,进入root状态下;
4. 安装Ollama
在终端中执行下方命令即可启动Ollama容器:
docker run --name ollama -d \
--restart always \
--net=host \
-v /volume1/docker/ollama:/root/.ollama \
ollama/ollama:latest
其中/volume1/docker/ollama是提前在NAS中创建好的AI模型的下载路径,请根据自己实际路径填写。
Ollama容器启动完毕后,打开群晖Container Manager,点击容器:
文章目录
-
- 前言
- 1.安装Container Manager
- 2. 启动ssh功能
- 3. ssh连接黑群晖
- 4. 安装Ollama
- 5. 安装deepseek模型
- 6. 安装open-webui图形界面
- 7. 安装内网穿透
-
- 7.1 下载cpolar套件
- 7.2 配置群辉虚拟机
- 7.3 配置公网地址
-
- 小结
- 7.4 配置固定公网地址
- 总结
前言
如果你是NAS发烧友,对黑群晖系统一定不会感到陌生。利用家里的闲置电脑搭建一套黑群晖,不仅能解决日常的存储问题,还能让你体验到DIY的乐趣。但说到最近最火的技术话题,非Deepseek AI大模型莫属了!不过,热度带来的服务器拥堵问题让人头疼不已。今天,我们就来揭秘如何在黑群晖上轻松部署Deepseek,享受专属AI服务!别忘了,有了cpolar内网穿透工具,即使没有公网IP或复杂的路由器设置,也能随时随地远程访问你的黑群晖系统和各项服务,是不是超级酷炫?快跟着我一起来试试吧!
1.安装Container Manager
首先,我们需要准备好一台安装了黑群晖系统的主机,不会安装的小伙伴可以参考一下这篇文章,从零开始在Windows使用VMware虚拟机安装黑群晖7.2系统并实现远程访问
首先访问黑群晖web管理界面(http://黑群晖主机IP+端口号)打开群晖的套件中心,先安装好Container Manager:
2. 启动ssh功能
打开群晖控制面板,终端机和SNMP,在“启动SSH功能”处打勾,端口号默认22,点击应用:
3. ssh连接黑群晖
在电脑上打开CMD或Powershell等SSH工具,填写黑群晖的IP地址,SSH端口,群晖管理员账号,输入管理员密码登录:
PS:黑群晖的IP在群晖助手中查看:
然后输入 sudo -i 回车,再次输入管理员密码回车,进入root状态下;
4. 安装Ollama
在终端中执行下方命令即可启动Ollama容器:
docker run --name ollama -d \
--restart always \
--net=host \
-v /volume1/docker/ollama:/root/.ollama \
ollama/ollama:latest
其中/volume1/docker/ollama是提前在NAS中创建好的AI模型的下载路径,请根据自己实际路径填写。
Ollama容器启动完毕后,打开群晖Container Manager,点击容器:
版权声明:本文标题:黑群晖玩转AI:Deepseek大模型本地部署与远程调用打造专属AI助手 内容由热心网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:https://it.en369.cn/jiaocheng/1763954993a2974521.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。


发表评论