admin管理员组

文章数量:1130349

文章目录

    • 前言
    • 1.安装Container Manager
    • 2. 启动ssh功能
    • 3. ssh连接黑群晖
    • 4. 安装Ollama
    • 5. 安装deepseek模型
    • 6. 安装open-webui图形界面
    • 7. 安装内网穿透
      • 7.1 下载cpolar套件
      • 7.2 配置群辉虚拟机
      • 7.3 配置公网地址
        • 小结
      • 7.4 配置固定公网地址
    • 总结

前言

如果你是NAS发烧友,对黑群晖系统一定不会感到陌生。利用家里的闲置电脑搭建一套黑群晖,不仅能解决日常的存储问题,还能让你体验到DIY的乐趣。但说到最近最火的技术话题,非Deepseek AI大模型莫属了!不过,热度带来的服务器拥堵问题让人头疼不已。今天,我们就来揭秘如何在黑群晖上轻松部署Deepseek,享受专属AI服务!别忘了,有了cpolar内网穿透工具,即使没有公网IP或复杂的路由器设置,也能随时随地远程访问你的黑群晖系统和各项服务,是不是超级酷炫?快跟着我一起来试试吧!

1.安装Container Manager

首先,我们需要准备好一台安装了黑群晖系统的主机,不会安装的小伙伴可以参考一下这篇文章,从零开始在Windows使用VMware虚拟机安装黑群晖7.2系统并实现远程访问

首先访问黑群晖web管理界面(http://黑群晖主机IP+端口号)打开群晖的套件中心,先安装好Container Manager:

2. 启动ssh功能

打开群晖控制面板,终端机和SNMP,在“启动SSH功能”处打勾,端口号默认22,点击应用:

3. ssh连接黑群晖

在电脑上打开CMD或Powershell等SSH工具,填写黑群晖的IP地址,SSH端口,群晖管理员账号,输入管理员密码登录:

PS:黑群晖的IP在群晖助手中查看:

然后输入 sudo -i 回车,再次输入管理员密码回车,进入root状态下;

4. 安装Ollama

在终端中执行下方命令即可启动Ollama容器:

docker run --name ollama -d \
--restart always \
--net=host \
-v /volume1/docker/ollama:/root/.ollama \
ollama/ollama:latest

其中/volume1/docker/ollama是提前在NAS中创建好的AI模型的下载路径,请根据自己实际路径填写。

Ollama容器启动完毕后,打开群晖Container Manager,点击容器:

文章目录

    • 前言
    • 1.安装Container Manager
    • 2. 启动ssh功能
    • 3. ssh连接黑群晖
    • 4. 安装Ollama
    • 5. 安装deepseek模型
    • 6. 安装open-webui图形界面
    • 7. 安装内网穿透
      • 7.1 下载cpolar套件
      • 7.2 配置群辉虚拟机
      • 7.3 配置公网地址
        • 小结
      • 7.4 配置固定公网地址
    • 总结

前言

如果你是NAS发烧友,对黑群晖系统一定不会感到陌生。利用家里的闲置电脑搭建一套黑群晖,不仅能解决日常的存储问题,还能让你体验到DIY的乐趣。但说到最近最火的技术话题,非Deepseek AI大模型莫属了!不过,热度带来的服务器拥堵问题让人头疼不已。今天,我们就来揭秘如何在黑群晖上轻松部署Deepseek,享受专属AI服务!别忘了,有了cpolar内网穿透工具,即使没有公网IP或复杂的路由器设置,也能随时随地远程访问你的黑群晖系统和各项服务,是不是超级酷炫?快跟着我一起来试试吧!

1.安装Container Manager

首先,我们需要准备好一台安装了黑群晖系统的主机,不会安装的小伙伴可以参考一下这篇文章,从零开始在Windows使用VMware虚拟机安装黑群晖7.2系统并实现远程访问

首先访问黑群晖web管理界面(http://黑群晖主机IP+端口号)打开群晖的套件中心,先安装好Container Manager:

2. 启动ssh功能

打开群晖控制面板,终端机和SNMP,在“启动SSH功能”处打勾,端口号默认22,点击应用:

3. ssh连接黑群晖

在电脑上打开CMD或Powershell等SSH工具,填写黑群晖的IP地址,SSH端口,群晖管理员账号,输入管理员密码登录:

PS:黑群晖的IP在群晖助手中查看:

然后输入 sudo -i 回车,再次输入管理员密码回车,进入root状态下;

4. 安装Ollama

在终端中执行下方命令即可启动Ollama容器:

docker run --name ollama -d \
--restart always \
--net=host \
-v /volume1/docker/ollama:/root/.ollama \
ollama/ollama:latest

其中/volume1/docker/ollama是提前在NAS中创建好的AI模型的下载路径,请根据自己实际路径填写。

Ollama容器启动完毕后,打开群晖Container Manager,点击容器:

本文标签: 玩转助手模型黑群晖DeepSeek