在CentOS上配置PyTorch的GPU支持,你需要确保你的系统满足以下条件:
以下是详细步骤:
首先,你需要安装适合你GPU型号的NVIDIA驱动。你可以从NVIDIA官网下载最新的驱动程序。
# 添加EPEL仓库
sudo yum install epel-release
# 安装NVIDIA驱动
sudo yum install kernel-devel-$(uname -r) kernel-headers-$(uname -r)
sudo yum install nvidia-driver-latest-dkms
重启系统以应用驱动更改:
sudo reboot
验证驱动是否安装成功:
nvidia-smi
访问NVIDIA CUDA Toolkit下载页面,选择适合你系统的版本并下载。对于CentOS,你可以使用以下命令安装:
# 添加CUDA仓库
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo tee /etc/apt/trusted.gpg.d/nvidia.gpg
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/yum.repos.d/nvidia-docker.repo
# 安装CUDA Toolkit
sudo yum install cuda
配置环境变量:
echo 'export PATH=/usr/local/cuda/bin:$PATH' >> ~/.bashrc
echo 'export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
source ~/.bashrc
验证CUDA是否安装成功:
nvcc --version
访问NVIDIA cuDNN下载页面,下载与你的CUDA版本兼容的cuDNN库。解压并将文件复制到CUDA目录:
# 解压cuDNN
tar -xzvf cudnn-11.x-linux-x64-v8.x.x.x.tgz
# 复制文件到CUDA目录
sudo cp cuda/include/cudnn*.h /usr/local/cuda/include
sudo cp cuda/lib64/libcudnn* /usr/local/cuda/lib64
sudo chmod a+r /usr/local/cuda/include/cudnn*.h /usr/local/cuda/lib64/libcudnn*
你可以使用pip来安装支持GPU的PyTorch版本。访问PyTorch官网,选择适合你系统的安装命令。例如:
pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu113
这里的cu113表示CUDA 11.3版本。请根据你安装的CUDA版本选择正确的URL。
运行以下Python代码来验证PyTorch是否能够检测到GPU:
import torch
print(torch.cuda.is_available())
print(torch.cuda.current_device())
print(torch.cuda.get_device_name(torch.cuda.current_device()))
如果输出显示GPU可用,并且显示了你的GPU型号,那么恭喜你,PyTorch的GPU支持已经配置成功!
请注意,上述步骤可能会随着软件版本的更新而发生变化。建议在安装前查看最新的官方文档。