【发布时间】:2018-02-26 22:07:20
【问题描述】:
我正在使用 pytorch 并试图了解一个简单的线性回归模型是如何工作的。
我正在使用一个简单的 LinearRegressionModel 类:
class LinearRegressionModel(nn.Module):
def __init__(self, input_dim, output_dim):
super(LinearRegressionModel, self).__init__()
self.linear = nn.Linear(input_dim, output_dim)
def forward(self, x):
out = self.linear(x)
return out
model = LinearRegressionModel(1, 1)
接下来我实例化一个损失标准和一个优化器
criterion = nn.MSELoss()
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
最后我使用以下代码来训练模型:
for epoch in range(epochs):
if torch.cuda.is_available():
inputs = Variable(torch.from_numpy(x_train).cuda())
if torch.cuda.is_available():
labels = Variable(torch.from_numpy(y_train).cuda())
# Clear gradients w.r.t. parameters
optimizer.zero_grad()
# Forward to get output
outputs = model(inputs)
# Calculate Loss
loss = criterion(outputs, labels)
# Getting gradients w.r.t. parameters
loss.backward()
# Updating parameters
optimizer.step()
我的问题是优化器如何获得由loss.backward() 计算的损失梯度,以使用step() 方法更新参数?模型、损失标准和优化器是如何联系在一起的?
【问题讨论】:
标签: python neural-network regression gradient pytorch