在Torch中处理回归任务通常需要定义一个损失函数和优化器来训练模型。首先,定义一个损失函数来衡量模型预测与真实值之间的差距,常用的损失函数包括均方误差(Mean Squared Error)和平均绝对误差(Mean Absolute Error)等。然后使用一个优化器来调整模型参数以最小化损失函数,常用的优化器包括随机梯度下降(SGD)和Adam等。
下面是一个简单的示例代码来处理回归任务:
import torchimport torch.nn as nnimport torch.optim as optim# 定义数据X = torch.tensor([[1.0], [2.0], [3.0]])y = torch.tensor([[2.0], [4.0], [6.0]])# 定义模型model = nn.Linear(1, 1)# 定义损失函数和优化器criterion = nn.MSELoss()optimizer = optim.SGD(model.parameters(), lr=0.01)# 训练模型for epoch in range(100): optimizer.zero_grad() outputs = model(X) loss = criterion(outputs, y) loss.backward() optimizer.step() if (epoch+1) % 10 == 0: print('Epoch [{}/{}], Loss: {:.4f}'.format(epoch+1, 100, loss.item()))# 测试模型with torch.no_grad(): test_input = torch.tensor([[4.0]]) predicted = model(test_input) print('Predicted value: {:.2f}'.format(predicted.item()))在上面的代码中,我们首先定义了数据X和y,然后定义了一个简单的线性模型,损失函数为均方误差,优化器为随机梯度下降。接下来进行模型训练,每个epoch计算损失并更新模型参数,最后测试模型并输出预测结果。




