pytorch新手自学教程(三)
包含头文件
import torch
import torch.nn as nn
import numpy as np
import matplotlib.pyplot as plt
线性回归
神经网络处理的主要两大类事物便是回归与分类。以一维线性回归问题为例讲解。
给定数据集 D = {(Xl , Yl) , (X2, Y2) , (X3 , Y3) ,… ,(Xm, Ym)},线性回归希望能够优 化出一个好的函数 f(x) , 使得 f(xi)=ωxi + b 能够与 Yi 尽可能接近。将f(x)比作神经网络,ω、 b为网络中需要训练的参数,而损失函数的作用即为衡量该神经网络输出f(xi)与yi的拟合度,并参照损失函数修改网络参数,使得结果更加趋近yi。
·准备一维线性数据集
x = torch.linspace(-1,1,100).unsqueeze(1) #linspace(-1,1,100)是在(-1,1)范围内平均取100个点,unquseeze(1)的作用是将x维度(100)变成(100,1)于神经网络输入维度保持一致(也可以用x = x.reshape(-1,1)达到相同目的)
y = 2 * x + torch.rand(x.size()) #y = 2 * x + (一个范围在(0,1)的随机数)
#打印数据
#x与y为tensor型,需转为numpy才能被画图包plt所用
x = np.array(x)
y = np.array(y)
plt.scatter(x, y) #画(x,y)的散点图
plt.show()
·构建网络模型:
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.linear = nn.Linear(1,1) #最简单神经网络,1个全连接层,输入为x(一维)输出为y(一维)
def forward(self, x): #前向传递
out = self.linear(x)
return out
net = Net()
·训练数据:
loss_fuc = nn.MSELoss() #损失函数
optimizer = torch.optim.RMSprop(net.parameters(), lr = 0.02) #学习效率为0.02的RMSprop优化器
epochs = 1000 #训练上述数据1000轮
for epoch in range(epochs):
#forward
out = net(x) #输出预测值
loss = loss_fuc(out, y) #预测值与真实值损失函数,参数位置不能颠倒
#backward
optimizer.zero_grad() #优化前使前一次梯度归0
loss.backward() #损失函数反向传递
optimizer.step() #执行优化
#输出训练中损失函数值
if epoch % 20 == 0:
print('epoch: {} | loss: {:.3f}'.format(epoch, loss.data))
·输出训练好的网络的预测图线:
plt.scatter(x, y)
out = net(x)
plt.plot(x.data.numpy(),out.data.numpy())
plt.show()