PyTorch(非线性回归---3.3)
数据部分上面一小节差不多。
1.这个类的定义,先是定义了隐含层和输出层,然后定义了前向传播函数(包括relu处理隐含层输出、加最终输出)
2.优化函数(传入的参数是神经网络的参数)以及loss函数。
3. 这里的backward是先清空了梯度,在计算梯度,最后在step更新梯度。
4.最后效果
数据部分上面一小节差不多。
1.这个类的定义,先是定义了隐含层和输出层,然后定义了前向传播函数(包括relu处理隐含层输出、加最终输出)
2.优化函数(传入的参数是神经网络的参数)以及loss函数。
3. 这里的backward是先清空了梯度,在计算梯度,最后在step更新梯度。
4.最后效果