在PyTorch中使用GPU进行计算非常简单,只需将模型和数据加载到GPU上即可。
检查GPU是否可用:import torchif torch.cuda.is_available(): device = torch.device("cuda") print("GPU is available")else: device = torch.device("cpu") print("GPU is not available, using CPU")将模型加载到GPU上:model = Model()model.to(device)将数据加载到GPU上:data = data.to(device)在训练循环中,确保每个batch的数据都加载到GPU上:for batch in dataloader: inputs, labels = batch inputs, labels = inputs.to(device), labels.to(device) # 在GPU上进行计算通过以上步骤,就可以在PyTorch中轻松地使用GPU进行计算。


