admin管理员组文章数量:1130349
前言
30号实习回来后接到了一个与深度学习相关的任务,首先第一步当然一定是把环境搭起来。好嘛,小编又要面对这在过去曾无数次给小编带来刻骨铭心之痛苦的Occasion了哈哈。
本文是小编的血泪环境搭建史,也是一个超超超超详细的部署指南。好啦话不多说,我们直接开干!
一、什么是深度学习
(一)定义
深度学习是人工智能的一个分支,本质上是一种让计算机模仿人脑学习的方式。它通过构建多层“虚拟神经元网络”(称为神经网络),从大量数据中自动提取规律,完成识别图像、理解语言、预测趋势等任务。
(二)核心原理
-
多层网络结构:像搭积木一样,每一层神经元处理不同级别的信息。比如识别猫的照片,底层可能识别线条和颜色,中间层组合成耳朵或尾巴的形状,最终层判断“这是猫”。
-
自动学习:无需人工设计规则,只需给电脑大量数据(如猫和狗的图片),它会自己调整神经网络的参数,直到能准确区分两者。
(三)简单举例
- 想象教小孩认猫:
- 第一步:看图片: 你给小孩看很多图片,告诉他哪些是猫,哪些不是猫(比如狗、汽车)。
- 第二步:找特征: 小孩自己会观察:哦,猫有尖耳朵、有胡须、毛茸茸的、眼睛圆圆亮亮的… 他开始注意这些“特征”。
- 第三步:组合特征: 小孩发现,光看耳朵可能不够(狐狸也有尖耳朵),还要结合胡须、眼睛、毛茸茸的感觉一起判断。他把这些特征组合起来理解。
- 第四步:不断练习和纠错: 刚开始他可能会认错(把狐狸当猫)。你告诉他错了,他就会调整自己“认猫”的标准:哦,原来狐狸的尾巴更蓬松,猫的尾巴更细长?下次他会更注意尾巴这个特征。看得越多、错得越多、被纠正得越多,他就越会抓住那些真正关键的、细微的特征组合。
- 最终:学会认猫: 经过大量图片的“训练”和“纠错”,小孩脑子里形成了一套非常复杂的“判断规则”,能准确认出各种姿势、各种花色的猫,即使他没见过某张具体的猫图片。
- 深度学习就是让电脑模仿这个过程:
- “神经网络”就是“小孩的大脑”: 它不是真的生物大脑,而是一个由很多很多层(像洋葱皮一层层)简单计算单元组成的复杂数学模型。
- “数据”就是“图片”: 我们给电脑看海量的数据(比如几百万张猫狗图片,每张都标注好是猫还是狗)。
- “训练”就是“学习过程”: 电脑一开始也瞎猜。它通过数据一层层地提取特征:
- 第一层可能只看到边缘、线条(比如发现图片里有条曲线)。
- 第二层可能组合线条,认出简单的形状(比如两个三角形可能是耳朵)。
- 第三层可能组合形状,认出更复杂的部件(尖耳朵+圆眼睛+胡须=猫脸)。
- 更深层就把这些部件组合起来,认出整个物体(猫)。
- “学习”就是“调整”: 每次猜错,电脑就会自动调整它内部每一层“计算单元”的“重要性权重”(相当于小孩调整自己关注哪些特征)。这个过程叫“反向传播”,就是根据错误,从后往前一层层修正判断标准。
- “深度”指“层数多”: 层数越多(“深度”越大),电脑就能学习到更抽象、更复杂的特征组合,能力就越强。
- 最终结果: 经过大量数据的训练和无数次的内部调整,这个深度神经网络就“学会”了一项技能(比如从图片中认出猫),而且它能处理非常复杂、模糊的情况(比如只拍到半个猫脸的图片)。
- 简单总结:
深度学习就是让电脑像小孩一样,通过看海量的例子(数据),自己一层层地学习、总结出复杂的特征和规律,最终掌握一项技能(比如识图、翻译、下棋、自动驾驶)的技术。它厉害在能自己“琢磨”出那些人类可能都难以明确描述的规则。
二、各部分是用来干嘛的
(一)python-IDLE
def:Python-IDLE 是 Python 自带的简单集成开发环境(IDE)。它提供了一个基础的界面来编写、运行和调试 Python 代码。在深度学习中,Python 是核心编程语言,几乎所有框架都用它来写代码。IDLE 的作用就像“练习本”,适合初学者快速测试小段代码,比如写一个简单的神经网络原型。
简单一句话,就是最最最最最简单质朴的能让你跑python代码的地方。
(二)CUDA Toolkit
def:CUDA Toolkit 是 NVIDIA 提供的工具包,用于让 GPU(显卡)加速计算。深度学习涉及大量矩阵运算(如 $A \times B + C$),这些运算在 CPU 上很慢,但 GPU 能并行处理成千上万次计算。CUDA Toolkit 的作用就是“解锁 GPU 的潜能”,它提供了编译器和库,让 PyTorch 等框架能直接调用 GPU 资源。例如,训练一个图像识别模型时,GPU 加速能让速度提升 10-100 倍。没有它,深度学习训练会像蜗牛爬行一样慢。
简单一句话,就是如果电脑有GPU,CUDA就是给他加速的
(三)CUDNN
def:CUDNN(CUDA Deep Neural Network library)是 NVIDIA 专门为深度学习优化的库,它基于 CUDA Toolkit 构建。CUDNN 的作用是“加速神经网络的核心操作”,比如卷积、池化和激活函数。这些操作在训练模型时反复执行,CUDNN 通过高度优化的算法(如使用快速傅里叶变换)让它们跑得更快、更省资源。例如,处理一个卷积层时,CUDNN 能自动选择最优实现方式,就像给汽车引擎加了涡轮增压器。它通常和 CUDA Toolkit 一起安装,确保 PyTorch 能高效利用 GPU。
简单一句话,CUDNN就是专门给深度学习加速的
(四)Miniconda
//小编选择miniconda,当然各位根据自己的需要也可以换成Anaconda,前者不过是后者的一个精简版。
def:Miniconda 是一个轻量级的包和环境管理工具。在深度学习中,不同项目需要不同版本的 Python 或库(如 PyTorch),如果版本冲突会导致错误。Miniconda 的作用是“创建隔离的工作区”,让你能为每个项目设置独立环境,安装特定依赖。例如,你可以用命令 conda create -n myenv python=3.8 创建一个环境,然后安装 PyTorch,而不会影响其他项目。这就像在工地上用多个工具箱分门别类存放工具,避免混乱。Miniconda 比完整版 Anaconda 更小巧,适合节省磁盘空间。
总结,Miniconda就是一个环境管家,保证各个项目独立互不干涉。
(五)PyTorch
def:PyTorch 是一个开源的深度学习框架,由 Facebook(现 Meta)开发。它是整个环境的核心,作用相当于“建筑蓝图和施工队”,让你能轻松构建、训练和部署神经网络模型。PyTorch 提供了高层 API(如定义层和损失函数)和底层控制(如自定义操作),支持自动微分(计算梯度)和 GPU 加速(依赖 CUDA/CUDNN)。
总结,Pytorch就是深度学习的工具箱
(六)PyCharm
def:PyCharm 是一个专业的 Python IDE(集成开发环境),由 JetBrains 开发。它不直接参与深度学习计算,但作用是“提升开发效率”,提供代码编辑、调试、版本控制(如 Git)和项目管理等功能。在深度学习中,PyCharm 的智能提示和错误检查能帮你快速写代码,比如自动补全 PyTorch 函数,或可视化数据集。
总结,IDLE太费劲,用pycharm这个IDE来更高效优雅的对代码和项目进行操作。
三、完整无省略的安装流程
(一)python3.10安装与验证
//小编电脑上有python3.13的IDLE,这个给vscode干其他事儿去了,为了之后能不那么混乱,所以小编就决定用pycharm配3.10专门跑深度学习了。
-
下载 Python 3.10.13
- 访问官网:https://www.python/downloads/release/python-31013/
- 下载 Windows x86-64 executable installer(64 位系统)。
-
安装 Python 3.10
- 双击安装包 → 勾选 Add Python 3.10 to PATH(重要!)。
- 点击 Install Now → 等待安装完成 → 点击 Close。
-
验证安装
-
win+r,cmd,进去终端
-
输入
python --version # 应输出 Python 3.10.13 -
注意!如果你们的电脑也跟小编一样之前装过其他版本的IDLE,如果执行上一步程序后输出的是之前那个的版本,那请进入环境变量,将10版本的上移(哈哈,小编是直接移到了最上面)。当然如果之前那个版本家人们并不需要保证它多么便捷,也可以直接将它从环境变量中删除。
-
(二)CUDA安装与验证
-
下载 CUDA 12.1(兼容你的驱动)
- 查看显卡驱动版本
- 按
Win + R→ 输入cmd→ 回车,打开命令提示符。 - 输入
nvidia-smi→ 回车,查看右上角 CUDA Version(小编这里是显示12.7,意思是我能安装的版本的上限是12.7)。
- 按
- 访问官网:CUDA Toolkit 12.1 Update 1 Downloads | NVIDIA Developer
- 选择:
- Operating System:Windows
- Architecture:x86_64
- Version:11(小编的操作系统是win11)
- Installer Type:exe (local)
- 点击 Download。
- 查看显卡驱动版本
-
安装 CUDA
- 双击安装包 → 同意协议 → Next。
- 选择 Custom → 取消勾选
Visual Studio Integration(除非你用 VS)→ Next。(这里忘了取消也问题不大,不会对你之后部署深度学习环境产生什么影响,不过多占了些内存哈哈) - 安装路径默认(如
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.1)→ Install。(请非特殊情况,不要修改默认安装路径,这是小编的血泪教训)
-
验证:
-
win+r,cmd,进去终端,输入指令:nvcc -V,如果出现和小编这里一样的图,就说明已安装成功。
-
(三)CUDNN安装(⭐)
//这一步简直就是小编这次历险险些卡死的地方。按照常规操作,首先你要先注册一个账号,然后就可以按照你下载的CUDA对应的版本下载CUDNN了(小编CUDA是12.1,故而CUDNN选择了和它兼容的8.9.7)。BUT! 小编输入了无数次信息,每次点击确认之后就是一片空白,根本无法注册,尝试了不知道多少次之后选择放弃这条路。所以这里给出的就是,绕过注册,直接下载的方法。
- 首先你需要下载一个迅雷(如果电脑上没有的话)
- 然后进入CUDNN下载官网:cuDNN Archive | NVIDIA Developer
- 找到和你们CUDA兼容的版本,别点,直接右键选择“复制链接”
- 然后将链接粘贴到迅雷下载任务(一般会自动识别的),这个时候如果发现下载任务的后缀是“.html”,那也不用慌,直接手动把链接最末尾的‘/’删掉,你就会惊喜的发现下载格式转换成了你理想的.zip模样哈哈。(这也是小编的血泪史之一)
-
解压并复制文件
- 解压下载的压缩包,得到
cuda文件夹(含bin、include、lib)。 - 将
cuda文件夹中的内容复制到 CUDA 安装目录(如C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.1):bin里的文件 → 复制到 CUDA 的bin文件夹。include里的文件 → 复制到 CUDA 的include文件夹。lib里的文件 → 复制到 CUDA 的lib文件夹。
- 解压下载的压缩包,得到
(四)安装 Miniconda
//20250702晚注:自从去年硬盘烧过一次之后,小编对半成品的备份和防护就格外敏感,本文尚未完成但今晚有其他事要去处理,故先发布,小编之后会将后续的内容补充完毕,感谢各位观众姥爷理解和支持!
(五)创建 Python 3.10 环境
(六)安装 PyTorch(带 GPU 支持)
(七)验证 GPU 配置
(八)安装 PyCharm
(九)配置 PyCharm 项目环境
(十)测试环境
四、小编的唠唠叨叨
前言
30号实习回来后接到了一个与深度学习相关的任务,首先第一步当然一定是把环境搭起来。好嘛,小编又要面对这在过去曾无数次给小编带来刻骨铭心之痛苦的Occasion了哈哈。
本文是小编的血泪环境搭建史,也是一个超超超超详细的部署指南。好啦话不多说,我们直接开干!
一、什么是深度学习
(一)定义
深度学习是人工智能的一个分支,本质上是一种让计算机模仿人脑学习的方式。它通过构建多层“虚拟神经元网络”(称为神经网络),从大量数据中自动提取规律,完成识别图像、理解语言、预测趋势等任务。
(二)核心原理
-
多层网络结构:像搭积木一样,每一层神经元处理不同级别的信息。比如识别猫的照片,底层可能识别线条和颜色,中间层组合成耳朵或尾巴的形状,最终层判断“这是猫”。
-
自动学习:无需人工设计规则,只需给电脑大量数据(如猫和狗的图片),它会自己调整神经网络的参数,直到能准确区分两者。
(三)简单举例
- 想象教小孩认猫:
- 第一步:看图片: 你给小孩看很多图片,告诉他哪些是猫,哪些不是猫(比如狗、汽车)。
- 第二步:找特征: 小孩自己会观察:哦,猫有尖耳朵、有胡须、毛茸茸的、眼睛圆圆亮亮的… 他开始注意这些“特征”。
- 第三步:组合特征: 小孩发现,光看耳朵可能不够(狐狸也有尖耳朵),还要结合胡须、眼睛、毛茸茸的感觉一起判断。他把这些特征组合起来理解。
- 第四步:不断练习和纠错: 刚开始他可能会认错(把狐狸当猫)。你告诉他错了,他就会调整自己“认猫”的标准:哦,原来狐狸的尾巴更蓬松,猫的尾巴更细长?下次他会更注意尾巴这个特征。看得越多、错得越多、被纠正得越多,他就越会抓住那些真正关键的、细微的特征组合。
- 最终:学会认猫: 经过大量图片的“训练”和“纠错”,小孩脑子里形成了一套非常复杂的“判断规则”,能准确认出各种姿势、各种花色的猫,即使他没见过某张具体的猫图片。
- 深度学习就是让电脑模仿这个过程:
- “神经网络”就是“小孩的大脑”: 它不是真的生物大脑,而是一个由很多很多层(像洋葱皮一层层)简单计算单元组成的复杂数学模型。
- “数据”就是“图片”: 我们给电脑看海量的数据(比如几百万张猫狗图片,每张都标注好是猫还是狗)。
- “训练”就是“学习过程”: 电脑一开始也瞎猜。它通过数据一层层地提取特征:
- 第一层可能只看到边缘、线条(比如发现图片里有条曲线)。
- 第二层可能组合线条,认出简单的形状(比如两个三角形可能是耳朵)。
- 第三层可能组合形状,认出更复杂的部件(尖耳朵+圆眼睛+胡须=猫脸)。
- 更深层就把这些部件组合起来,认出整个物体(猫)。
- “学习”就是“调整”: 每次猜错,电脑就会自动调整它内部每一层“计算单元”的“重要性权重”(相当于小孩调整自己关注哪些特征)。这个过程叫“反向传播”,就是根据错误,从后往前一层层修正判断标准。
- “深度”指“层数多”: 层数越多(“深度”越大),电脑就能学习到更抽象、更复杂的特征组合,能力就越强。
- 最终结果: 经过大量数据的训练和无数次的内部调整,这个深度神经网络就“学会”了一项技能(比如从图片中认出猫),而且它能处理非常复杂、模糊的情况(比如只拍到半个猫脸的图片)。
- 简单总结:
深度学习就是让电脑像小孩一样,通过看海量的例子(数据),自己一层层地学习、总结出复杂的特征和规律,最终掌握一项技能(比如识图、翻译、下棋、自动驾驶)的技术。它厉害在能自己“琢磨”出那些人类可能都难以明确描述的规则。
二、各部分是用来干嘛的
(一)python-IDLE
def:Python-IDLE 是 Python 自带的简单集成开发环境(IDE)。它提供了一个基础的界面来编写、运行和调试 Python 代码。在深度学习中,Python 是核心编程语言,几乎所有框架都用它来写代码。IDLE 的作用就像“练习本”,适合初学者快速测试小段代码,比如写一个简单的神经网络原型。
简单一句话,就是最最最最最简单质朴的能让你跑python代码的地方。
(二)CUDA Toolkit
def:CUDA Toolkit 是 NVIDIA 提供的工具包,用于让 GPU(显卡)加速计算。深度学习涉及大量矩阵运算(如 $A \times B + C$),这些运算在 CPU 上很慢,但 GPU 能并行处理成千上万次计算。CUDA Toolkit 的作用就是“解锁 GPU 的潜能”,它提供了编译器和库,让 PyTorch 等框架能直接调用 GPU 资源。例如,训练一个图像识别模型时,GPU 加速能让速度提升 10-100 倍。没有它,深度学习训练会像蜗牛爬行一样慢。
简单一句话,就是如果电脑有GPU,CUDA就是给他加速的
(三)CUDNN
def:CUDNN(CUDA Deep Neural Network library)是 NVIDIA 专门为深度学习优化的库,它基于 CUDA Toolkit 构建。CUDNN 的作用是“加速神经网络的核心操作”,比如卷积、池化和激活函数。这些操作在训练模型时反复执行,CUDNN 通过高度优化的算法(如使用快速傅里叶变换)让它们跑得更快、更省资源。例如,处理一个卷积层时,CUDNN 能自动选择最优实现方式,就像给汽车引擎加了涡轮增压器。它通常和 CUDA Toolkit 一起安装,确保 PyTorch 能高效利用 GPU。
简单一句话,CUDNN就是专门给深度学习加速的
(四)Miniconda
//小编选择miniconda,当然各位根据自己的需要也可以换成Anaconda,前者不过是后者的一个精简版。
def:Miniconda 是一个轻量级的包和环境管理工具。在深度学习中,不同项目需要不同版本的 Python 或库(如 PyTorch),如果版本冲突会导致错误。Miniconda 的作用是“创建隔离的工作区”,让你能为每个项目设置独立环境,安装特定依赖。例如,你可以用命令 conda create -n myenv python=3.8 创建一个环境,然后安装 PyTorch,而不会影响其他项目。这就像在工地上用多个工具箱分门别类存放工具,避免混乱。Miniconda 比完整版 Anaconda 更小巧,适合节省磁盘空间。
总结,Miniconda就是一个环境管家,保证各个项目独立互不干涉。
(五)PyTorch
def:PyTorch 是一个开源的深度学习框架,由 Facebook(现 Meta)开发。它是整个环境的核心,作用相当于“建筑蓝图和施工队”,让你能轻松构建、训练和部署神经网络模型。PyTorch 提供了高层 API(如定义层和损失函数)和底层控制(如自定义操作),支持自动微分(计算梯度)和 GPU 加速(依赖 CUDA/CUDNN)。
总结,Pytorch就是深度学习的工具箱
(六)PyCharm
def:PyCharm 是一个专业的 Python IDE(集成开发环境),由 JetBrains 开发。它不直接参与深度学习计算,但作用是“提升开发效率”,提供代码编辑、调试、版本控制(如 Git)和项目管理等功能。在深度学习中,PyCharm 的智能提示和错误检查能帮你快速写代码,比如自动补全 PyTorch 函数,或可视化数据集。
总结,IDLE太费劲,用pycharm这个IDE来更高效优雅的对代码和项目进行操作。
三、完整无省略的安装流程
(一)python3.10安装与验证
//小编电脑上有python3.13的IDLE,这个给vscode干其他事儿去了,为了之后能不那么混乱,所以小编就决定用pycharm配3.10专门跑深度学习了。
-
下载 Python 3.10.13
- 访问官网:https://www.python/downloads/release/python-31013/
- 下载 Windows x86-64 executable installer(64 位系统)。
-
安装 Python 3.10
- 双击安装包 → 勾选 Add Python 3.10 to PATH(重要!)。
- 点击 Install Now → 等待安装完成 → 点击 Close。
-
验证安装
-
win+r,cmd,进去终端
-
输入
python --version # 应输出 Python 3.10.13 -
注意!如果你们的电脑也跟小编一样之前装过其他版本的IDLE,如果执行上一步程序后输出的是之前那个的版本,那请进入环境变量,将10版本的上移(哈哈,小编是直接移到了最上面)。当然如果之前那个版本家人们并不需要保证它多么便捷,也可以直接将它从环境变量中删除。
-
(二)CUDA安装与验证
-
下载 CUDA 12.1(兼容你的驱动)
- 查看显卡驱动版本
- 按
Win + R→ 输入cmd→ 回车,打开命令提示符。 - 输入
nvidia-smi→ 回车,查看右上角 CUDA Version(小编这里是显示12.7,意思是我能安装的版本的上限是12.7)。
- 按
- 访问官网:CUDA Toolkit 12.1 Update 1 Downloads | NVIDIA Developer
- 选择:
- Operating System:Windows
- Architecture:x86_64
- Version:11(小编的操作系统是win11)
- Installer Type:exe (local)
- 点击 Download。
- 查看显卡驱动版本
-
安装 CUDA
- 双击安装包 → 同意协议 → Next。
- 选择 Custom → 取消勾选
Visual Studio Integration(除非你用 VS)→ Next。(这里忘了取消也问题不大,不会对你之后部署深度学习环境产生什么影响,不过多占了些内存哈哈) - 安装路径默认(如
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.1)→ Install。(请非特殊情况,不要修改默认安装路径,这是小编的血泪教训)
-
验证:
-
win+r,cmd,进去终端,输入指令:nvcc -V,如果出现和小编这里一样的图,就说明已安装成功。
-
(三)CUDNN安装(⭐)
//这一步简直就是小编这次历险险些卡死的地方。按照常规操作,首先你要先注册一个账号,然后就可以按照你下载的CUDA对应的版本下载CUDNN了(小编CUDA是12.1,故而CUDNN选择了和它兼容的8.9.7)。BUT! 小编输入了无数次信息,每次点击确认之后就是一片空白,根本无法注册,尝试了不知道多少次之后选择放弃这条路。所以这里给出的就是,绕过注册,直接下载的方法。
- 首先你需要下载一个迅雷(如果电脑上没有的话)
- 然后进入CUDNN下载官网:cuDNN Archive | NVIDIA Developer
- 找到和你们CUDA兼容的版本,别点,直接右键选择“复制链接”
- 然后将链接粘贴到迅雷下载任务(一般会自动识别的),这个时候如果发现下载任务的后缀是“.html”,那也不用慌,直接手动把链接最末尾的‘/’删掉,你就会惊喜的发现下载格式转换成了你理想的.zip模样哈哈。(这也是小编的血泪史之一)
-
解压并复制文件
- 解压下载的压缩包,得到
cuda文件夹(含bin、include、lib)。 - 将
cuda文件夹中的内容复制到 CUDA 安装目录(如C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.1):bin里的文件 → 复制到 CUDA 的bin文件夹。include里的文件 → 复制到 CUDA 的include文件夹。lib里的文件 → 复制到 CUDA 的lib文件夹。
- 解压下载的压缩包,得到
(四)安装 Miniconda
//20250702晚注:自从去年硬盘烧过一次之后,小编对半成品的备份和防护就格外敏感,本文尚未完成但今晚有其他事要去处理,故先发布,小编之后会将后续的内容补充完毕,感谢各位观众姥爷理解和支持!
(五)创建 Python 3.10 环境
(六)安装 PyTorch(带 GPU 支持)
(七)验证 GPU 配置
(八)安装 PyCharm
(九)配置 PyCharm 项目环境
(十)测试环境
四、小编的唠唠叨叨
版权声明:本文标题:《从 “环境崩溃” 到 “丝滑运行”:PyCharm + MiniConda 深度学习环境搭建实录》 内容由热心网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:https://it.en369.cn/jiaocheng/1754416624a2682644.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。


发表评论