RTX4060Ti到手后,我如何在Windows上一步步配好PyTorch+UNet环境(附完整依赖清单)
RTX4060Ti到手后我如何在Windows上一步步配好PyTorchUNet环境附完整依赖清单刚拆开RTX4060Ti的包装时那种兴奋感就像拿到新玩具的孩子。但很快我就意识到要让这块显卡真正发挥价值得先搞定深度学习环境的配置。作为一个从零开始摸索的开发者我记录下整个过程中遇到的坑和解决方案希望能帮到同样刚入门的你。1. 开箱与基础准备拆开显卡包装后第一件事不是急着上机而是做好这些准备工作检查电源功率RTX4060Ti建议使用550W以上电源确保你的电源接口和功率足够安装显卡驱动到NVIDIA官网下载最新Game Ready驱动而不是Studio驱动验证显卡状态安装完成后在cmd运行nvidia-smi应该能看到类似这样的输出--------------------------------------------------------------------------------------- | NVIDIA-SMI 535.98 Driver Version: 535.98 CUDA Version: 12.2 | |------------------------------------------------------------------------------------- | GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. | || | 0 NVIDIA GeForce RTX 4060 Ti On | 00000000:01:00.0 On | N/A | | 30% 45℃ P8 12W / 160W | 100MiB / 16384MiB | 0% Default | -------------------------------------------------------------------------------------注意如果显示CUDA Version为N/A说明驱动安装有问题需要重新安装2. Anaconda环境配置为什么选择Anaconda因为它能完美解决Python环境冲突问题。我推荐使用Miniconda而不是完整的Anaconda因为它更轻量# 下载Miniconda安装包Python 3.10版本 https://docs.conda.io/en/latest/miniconda.html安装时记得勾选Add Miniconda to PATH这样可以直接在命令行使用conda命令。安装完成后创建一个专用于PyTorch的环境conda create -n pytorch_unet python3.10 conda activate pytorch_unet3. CUDA与cuDNN安装指南RTX4060Ti支持CUDA 11.8到12.x但考虑到PyTorch的兼容性我选择了CUDA 11.8组合CUDA Toolkit 11.8下载地址CUDA Toolkit Archive安装时选择自定义安装只勾选CUDADevelopmentDocumentationcuDNN 8.9.6需要注册NVIDIA开发者账号下载后解压到CUDA安装目录默认是C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8验证安装是否成功nvcc -V # 应显示CUDA 11.8 cd C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8\extras\demo_suite bandwidthTest.exe # 显示Result PASS4. PyTorch与依赖库安装这是最容易出错的环节。根据官方文档和实际测试RTX4060Ti的最佳PyTorch版本组合是conda install pytorch2.0.1 torchvision0.15.2 torchaudio2.0.2 pytorch-cuda11.8 -c pytorch -c nvidia重要提示不要使用pip安装PyTorch的CUDA版本conda能自动解决依赖冲突UNet训练还需要以下依赖库我整理成了requirements.txttensorboard2.12.0 scipy1.10.1 numpy1.23.5 matplotlib3.7.1 opencv-python4.7.0.72 tqdm4.65.0 h5py3.8.0 pillow9.5.0 imageio2.31.1安装时建议使用清华源加速pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple5. 开发环境配置与验证我选择VS Code作为开发环境配置步骤如下安装Python扩展和Pylance设置解释器路径为conda环境中的python.exe创建launch.json配置{ version: 0.2.0, configurations: [ { name: Python: Current File, type: python, request: launch, program: ${file}, console: integratedTerminal, justMyCode: true } ] }验证PyTorch是否能正确识别显卡import torch print(fPyTorch版本: {torch.__version__}) print(fCUDA可用: {torch.cuda.is_available()}) print(fGPU数量: {torch.cuda.device_count()}) print(f当前GPU: {torch.cuda.current_device()}) print(fGPU名称: {torch.cuda.get_device_name(0)})预期输出应该显示CUDA可用且能正确识别RTX4060Ti。6. UNet项目实战配置以Bubbliiiing的UNet实现为例克隆仓库后需要特别注意数据集路径配置修改train.py中的dataset_path调整batch sizeRTX4060Ti 16GB显存建议设置为8-12启用混合精度训练scaler torch.cuda.amp.GradScaler() with torch.cuda.amp.autocast(): outputs model(inputs) loss criterion(outputs, targets) scaler.scale(loss).backward() scaler.step(optimizer) scaler.update()训练时监控显存使用情况nvidia-smi -l 1 # 每秒刷新一次显存使用情况7. 常见问题解决方案问题1torch.cuda.is_available()返回False检查驱动版本nvidia-smi显示的CUDA版本应≥PyTorch需要的版本确认PyTorch安装的是CUDA版本print(torch.version.cuda)问题2训练时出现CUDA out of memory减小batch size使用torch.cuda.empty_cache()检查是否有其他程序占用显存问题3DLL加载失败重新安装VC运行库检查环境变量PATH是否包含CUDA的bin路径经过一周的实际使用RTX4060Ti在UNet训练中表现出色相比我之前用的GTX 1660训练速度提升了约3倍。最让我惊喜的是它的能效比满载时温度很少超过75℃风扇噪音也控制得很好。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2595383.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!