初识pytorch 回归问题,梳理流程

最后的效果图如下:

流程如下:

  • 生成x, y
  • 搭建简单网络
  • 训练
  • 动态图显示训练过程

代码如下:

# coding=utf-8
import torch
import torch.nn.functional as F 
import matplotlib.pyplot as plt

x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=1)
y = x.pow(2) + 0.2 * torch.rand(x.size())

# 转换成tensor
x = torch.Tensor(x)
y = torch.Tensor(y)

# # 打印散点图
# plt.scatter(x.data.numpy(), y.data.numpy())
# plt.show()

# 搭建神经网络
class Net(torch.nn.Module):
    def __init__(self, n_feature, n_hidden, n_output):
        super().__init__()
        self.hidden = torch.nn.Linear(n_feature, n_hidden) # layer
        self.predict = torch.nn.Linear(n_hidden, n_output) # layer

    def forward(self, x): # 前向计算
        x = F.relu(self.hidden(x))
        x = self.predict(x)
        return x

net = Net(1, 100, 1)
print(net)

# 随机梯度下降
omptimzer = torch.optim.SGD(net.parameters(), lr=0.01) # 网络的所有参数,和学习率
loss_func = torch.nn.MSELoss() # 均方差

# 可视化
plt.ion() # 设置可以实时显示
plt.show()

for t in range(1000):
    prediction = net(x)
    loss = loss_func(prediction, y)

    omptimzer.zero_grad() # 先将所有参数的梯度每次置零
    loss.backward() # 误差反向传播,计算所有节点的梯度
    omptimzer.step() # 用上面的计算值,学习率为lr,来优化参数

    if t % 50 == 0:
        plt.cla()
        plt.scatter(x.data.numpy(), y.data.numpy())
        plt.plot(x.data.numpy(), prediction.data.numpy(), 'r-', lw=5)
        plt.pause(0.1)
        print(f't:{t}, {loss.tolist()}')

plt.ioff()
plt.show()

参考莫烦pytorch教程:https://space.bilibili.com

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章