Ubuntu 上 PyTorch 的 GPU 支持概览
在 Ubuntu 上,PyTorch 的 GPU 加速主要走两条路线:一是 NVIDIA CUDA 生态,二是 AMD ROCm 生态。是否能用取决于三件事:显卡架构与计算能力(NVIDIA)、PyTorch 预编译包所带的 CUDA/ROCm 版本、以及系统驱动版本是否匹配。
NVIDIA 显卡支持
| 架构 | 计算能力(CC) | 代表型号 | 建议 PyTorch/CUDA |
|---|---|---|---|
| Maxwell | 5.x | GTX 950/960、Titan X | 可用(建议选较新的 PyTorch 2.x + CUDA 11.8/12.x) |
| Pascal | 6.1 | GTX 1080、GTX 1070 Ti、P40 | 可用(建议 CUDA 11.8/12.x) |
| Volta | 7.0 | Tesla V100 | 可用(建议 CUDA 11.8/12.x) |
| Turing | 7.5 | RTX 2080 Ti、T4、Quadro RTX 5000 | 可用(建议 CUDA 11.8/12.x) |
| Ampere | 8.0/8.6/8.9 | A100、RTX 3090、RTX 3080、RTX A6000、L4 | 可用(建议 CUDA 12.1+) |
| Hopper | 9.0 | H100 | 需 CUDA 12.1+ 的 PyTorch 构建 |
nvidia-smi 查看驱动与“支持的 CUDA 运行时版本”,再选择与之匹配的 PyTorch CUDA 包(无需单独安装完整 CUDA Toolkit,使用官方预编译包即可)。import torch; print(torch.cuda.is_available()) 应为 True。AMD 显卡支持
快速自检与选配步骤
nvidia-smi(NVIDIA)或 lspci | grep -i amd(AMD)。nvidia-smi -q | grep -i "Compute Capability",或查阅 NVIDIA 官方 CC 表。python - <<'PY' import torch print("CUDA可用性:", torch.cuda.is_available()) if torch.cuda.is_available(): print("设备:", torch.cuda.get_device_name(0)) print("计算能力:", torch.cuda.get_device_capability(0)) PY