如何在 WSL-Ubuntu 上安装 CUDA ?
0. 查看自己的Ubuntu系统版本和架构在开始下载CUDA之前有一个前置步骤那就是确定自己的WSL-Ubuntu的版本和架构。通过lsb_release -a命令可以查看Ubuntu的版本信息。系统会返回如下输出Distributor ID: Ubuntu Description: Ubuntu 24.04.3 LTS Release: 24.04 Codename: noble可以看到这台设备的Ubuntu版本是24.04的第3个小版本更新24.04版本的代号是Noble Numbat尊贵的袋食蚁兽。Ubuntu的每个大版本都会选择一个“形容词动物名”的名称作为该版本的代号。注意⚠这里的24.04版本不是下面安装CUDA的版本这条输出仅仅只是演示效果避免遇到CUDA版本和Ubuntu版本冲突问题。Ubuntu系统架构可以使用uname -m命令来查询系统会直接输出架构名,如x86_64。1. 检查显卡驱动状态也可查看当前设备的显卡WSL2可以直接使用Windows系统上的显卡驱动使用命令提示符CMD输入命令nvidia-sminvidia-smi命令是英伟达系统管理界面的命令行工具用来监控和管理英伟达的显卡类比于Windows上EscShiftCtrl快捷键打开的CPU任务管理器。你在小红和抖上面看到那些晒自己的计算卡配置的就是使用这条命令查看的。输出Mon Apr 27 22:55:19 2026 --------------------------------------------------------------------------------------- | NVIDIA-SMI 535.119 Driver Version: 537.53 CUDA Version: 12.2 | |------------------------------------------------------------------------------------- | GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. | | | | MIG M. | || | 0 NVIDIA GeForce RTX 4060 ... On | 00000000:01:00.0 On | N/A | | N/A 42C P8 5W / 70W | 948MiB / 8188MiB | 5% Default | | | | N/A | ------------------------------------------------------------------------------------- --------------------------------------------------------------------------------------- | Processes: | | GPU GI CI PID Type Process name GPU Memory | | ID ID Usage | || | 0 N/A N/A 74 G /Xwayland N/A | ---------------------------------------------------------------------------------------根据输出信息可以看到设备当前的显卡驱动版本Driver Version为537.53最高支持的CUDA版本CUDA Version为12.2。2检查是否有CUDA工具包命令nvcc --versionNVCC是英伟达CUDA编译器的命令行工具用来将.cu的CUDA程序源文件编译成能在英伟达显卡上运行的可执行文件.cu文件 → PTX汇编指令集 → 机器码cubin。NVCC编译器的强大之处在于支持分离编译NVCC能够自动分离CUDA代码中CPU的部分和GPU的部分将CPU部分的代码交给传统的C编译器gcc来处理最后再将CPU部分和GPU部分链接再一起。输出Command nvcc not found, but can be installed with: sudo apt install nvidia-cuda-toolkit系统告诉我们不能找到nvcc命令说明设备当前没有安装CUDA工具包。需要下载安装CUDA。3. 查看驱动对应的CUDA版本访问https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html直接下拉到Table 3 CUDA Toolkit and Corresponding Driver Versions根据前面在Windows宿主机使用nvidia-smi命令查到的显卡驱动版本和当前显卡驱动支持的最高版本的CUDA版本查表。根据查表可得我的设备当前适合安装的CUDA版本可以是CUDA 12.2 Update 2。4. 下载指定版本的CUDA访问https://developer.nvidia.com/cuda-toolkit-archive找到并点击 CUDA Toolkit 12.2.2依次点击Linux → x86_64 → WSL-Ubuntu → 2.0 → deb(local)可以得到如下安装脚本命令wgethttps://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pinsudomvcuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600wgethttps://developer.download.nvidia.com/compute/cuda/12.2.2/local_installers/cuda-repo-wsl-ubuntu-12-2-local_12.2.2-1_amd64.debsudodpkg-icuda-repo-wsl-ubuntu-12-2-local_12.2.2-1_amd64.debsudocp/var/cuda-repo-wsl-ubuntu-12-2-local/cuda-*-keyring.gpg /usr/share/keyrings/sudoapt-getupdatesudoapt-get-yinstallcuda5. 将nvcc加入到PATH环境变量命令echoexport PATH/usr/local/cuda/bin:$PATH~/.bashrcechoexport LD_LIBRARY_PATH/usr/local/cuda/lib64:$LD_LIBRARY_PATH~/.bashrcsource~/.bashrc再次输入nvcc --version可以查看如下输出信息说明CUDA安装成功:nvcc: NVIDIA(R)Cuda compiler driver Copyright(c)2005-2023 NVIDIA Corporation Built on Tue_Aug_15_22:02:13_PDT_2023 Cuda compilation tools, release12.2, V12.2.140 Build cuda_12.2.r12.2/compiler.33191640_06. 删除.deb文件安装成功后文件cuda-repo-wsl-ubuntu-12-2-local_12.2.2-1_amd64.deb可以删除。作者的哔哔赖赖Ubuntu是一个在人工智能深度学习领域广泛使用的Linux操作系统你可以在网上很多做人工智能深度学习的视频中看到Ubuntu那标志性的深紫色终端命令行窗口。在Kaggle这种大型数据科学和机器学习网站上的Jupyter Notebook也是基于Ubuntu的Linux系统英伟达的DGX Spark工作站预装的DGX OS系统同样是一个在Ubuntu上为AI开发任务深度定制的系统而且很多深度学习库或者工具框架如大模型推理框架vLLM对Windows来说并不完全兼容。对于刚开始学习或者从事生产开发的人来说一台设备使用Windows和Ubuntu双系统显得繁琐两个系统间切换、文件传输也很不方便。使用VMware虚拟机虽然可以省很多事但是VMware有一个致命的缺点————没有GPU直通无法在虚拟机中直接使用物理GPU的CUDA加速这使得想通过VMware运行Ubuntu进行深度学习操作显得鸡肋。好在微软开发了WSL2它可以直接在Windows上运行UbuntuWSL2也可以直接访问Windows下的数据集、代码文件无需任何复制粘贴通过VScode的Remote-WSL插件还可以直接远程连接开发。最重要的是英伟达官方提供了WSL2专用的CUDA驱动和工具包性能接近原生Linux环境。什么是CUDA这是英伟达推出的“计算统一设备架构Compute Unified Device Architecture”的简称。人工智能的运行本质上就是计算对大量复杂的数学公式的计算AI算法充满着如卷积conv()、激活relu()、矩阵相乘mul()之类的函数或者计算操作这些统称为算子Operator。如果要在CPU上运行这些算子由于CPU电路设计只支持简单的加法和乘法看不懂这些复杂的运算人们就在计算复杂的公式和CPU的中间加一个中间角色——写各种“翻译程序”来实现使用CPU的加法和乘法来实现复杂的计算。但是CPU的电路设计没有并行计算的能力算子在CPU上的运行速度令人捉急这时人们注意到了拥有并行计算的GPU发现在GPU上运行的速度比CPU快很多AI教父杰弗里·辛顿团队使用两块GTX 580显卡训练出来的AlexNet模型在2012年ImageNet大赛上以断崖式领先的成绩夺得冠军标志着使用GPU训练深度学习模型的范式正式成为主流。类似于前面CPU的逻辑人们在算子和GPU的中间重构了一套“翻译程序”。但这里藏着一个大坑GPU也看不懂我们平时写的C语言或者Python代码。早期的时候GPU根本没有对应的编译器也就是那个“翻译官”。厂家只会自己用汇编语言写好一些基础算子然后扔给你用。换句话说厂家提供什么算子你就只能用这些算子如果模型里需要一个厂家没实现的算子你就只能干瞪眼——要么求厂家帮你写要么放弃你的模型。这显然不行。英伟达意识到了这个问题于是推出了CUDA。它包含了一套专门为GPU设计的高级编程语言叫CUDA C/C和一个对应的编译器NVCC。你可以用这套语言自由地编写各种复杂的算子然后NVCC编译器会把这些代码翻译成GPU能听懂的指令。除此之外英伟达还提供了庞大的基础算子库cuDNN覆盖了绝大多数常见的深度学习操作。这样一来开发者既能直接用现成的算子快速搭模型也能在需要的时候自己写定制算子彻底解放了生产力。这就是CUDA被称为英伟达“护城河”的原因。我第一次听说CUDA这个词还是2025年过年期间DeepSeek-R1横空出世的时候我从2024年9月开始上大一接触人工智能专业第一个学期屁也不懂结果DeepSeek-R1引爆了全世界的中国开源大模型的热度正是那个寒假期间开始跟着B站的教学视频一点一点接触模型的本地部署、了解、pytorch、tensorflow等等。可以说2025年是我人工智能的启蒙之年。那时候网上的营销号都在传DeepSeek绕过了CUDA把英伟达的护城河打破了。其实当时的深度求索团队并未彻底绕开或在软件层面取代CUDA而是绕过CUDA生态中较为上层的CUDA C/C编程直接操作CUDA生态中更底层的“中间语言”PTX并行线程执行语言 Parallel Thread Execution进一步挖掘显卡算力的性能极限。类似的事情在视频《「DeepSeek」幻方量化内部采访天才们的头型都很前沿❗️内含招聘地址》中亦有介绍。我不生产知识我只是知识的搬运工。之所以写博客是对人工智能这门学科还是挺感兴趣的想要在大学期间留下点什么不要以后回顾大学生活时想到没有干成什么事没有留下点记录点什么。作者对自己博客的定位是学习笔记和操作说明文档希望能够帮助大家解决问题也希望得到大家的反馈。参考资料[1] 从英伟达CUDA到昇腾CANN计算架构为何这么重要工科男孙老师
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2582110.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!