从原理上理解Win11环境下WSL2如何配置pytorch环境并调用NVIDIA GPU

发布于:2025-06-21 ⋅ 阅读:(19) ⋅ 点赞:(0)

  

如果要在Windows上部署深度学习开发环境,一般来讲比在Ubuntu等环境上要复杂很多。但Win11大幅加强了WSL2的能力,因此基于WSL2,我们可以实现非常简洁的部署流程。大体的操作流程是:

  1. 安装WSL2,这部分网上教程很多,不赘述。
  2. 在WSL2中依次安装cuda和NVIDIA container toolkit,这部分参考NVIDIA官方教程,不要看网上的二手教程,因为很多教程是错的。
  3. 安装docker,这步也建议参考官方教程,网上很多教程也是错的。
  4. 安装好后修改 daemon.json,设置default runtime为nvidia,具体格式直接问deepseek。
  5. 建议换docker国内镜像,具体操作问deepseek,目前好用的国内镜像源是  https://docker.xuanyuan.me。
  6. 测试WSL2中的 nvidia-smi 和 nvcc ,都能正常使用的话,WSL2中的配置就结束了。
  7. 接下来是关键一步:在Windows上(不是WSL2环境内)安装docker desktop,安装过程中选中“将WSL作为后端”
  8. 在WSL2中安装docker镜像,推荐下面这个镜像,亲测好用。完成这个docker的拉取和container创建后,整个配置流程就结束了。
docker pull pytorch/pytorch:2.1.0-cuda11.8-cudnn8-runtime


接下来讨论一下,为什么在WSL2中使用GPU,需要在Windows中安装docker desktop?

这就要从WSL2的软件架构说起了,与直接在硬件上安装Linux系统不同,所谓“访问GPU”,依然是通过Windows的NVIDIA驱动实现,并不是WSL2直接访问硬件。这也就是为什么很老版本的NVIDIA驱动无法支持WSL访问GPU。

整体的架构如下图,W SL2 本质是虚拟机,不能直接访问物理硬件,通过层层转发,最终执行由Windows的NVIDIA驱动完成,间接实现了WSL2中的容器访问Windows管理的硬件。

  

 因此,Docker Desktop 是整个链路中的核心"中介",提供了GPU访问的重要功能:

  • Hyper-V 虚拟化层的 PCIe 设备穿透

  • Windows/Linux 驱动模型的转换

  • GPU 时间片分配和隔离

总结一下,WSL2 的 Docker GPU 支持依赖于完整的传递链:

  1. 必需​:Windows 主机的 Docker Desktop(WSL2 后端)
  2. 必需​:≥465 版本的 NVIDIA Windows 驱动
  3. 必需​:WSL2 内核中的 GPU 虚拟化支持
  4. 必需​:Linux 端的 NVIDIA Container Toolkit


很可惜的是,当前网上并没有哪个教程强调了这一点,导致很多新手在配置环境时忽略了“在Windows下安装docker desktop并以WSL作为后端”这个关键步骤。

本质上还是在于没有从底层原理来理解WSL2。其实学任何技术都一样,如何配置,如何操作,这些其实都是细枝末节,并不本质,本质是底层的技术是如何实现的,理解了它的实现,才能理顺上层的应用,不会去踩那些莫名其妙的坑。


网站公告

今日签到

点亮在社区的每一天
去签到