您现在的位置是:首页 >技术教程 >【python】pytorch包(第二章)API使用与介绍网站首页技术教程
【python】pytorch包(第二章)API使用与介绍
1> nn.Module (用于构建模型的底层逻辑)
介绍
nn.Module 是 torch.nn 中的一个类,是pytorch中自定义网络的基类
__init__
需要调用super方法,继承父类属性和方法forward
方法必须实现,用来定义网络的向前计算的过程
例:y = w*x + b 的拟合模型
构建
from torch import nn
class Lr(nn.Module): #构建模型逻辑
def __init__(self): #定义该层
super(Lr,self).__init__() #继承父类的init参数
self.linear = nn.Linear( aa , bb )
#该层网络的输入数据的维度为aa,输出数据的维度为bb
def forward(self,x):
#即 如何由输入的数据x得到输出的结果out
out = self.linear(x)
return out
使用
#实例化模型
model = Lr()
#传入数据,计算结果
pred_y = model(x)
2> 优化器类 optimizer
介绍
优化器是torch为我们封装的用来更新参数的方法
设定优化器
-
torch.optim.SGD(参数, lr=学习率)
SGD(stochastic gradient descent, 随机梯度下降)
”参数“指: 模型中需要被更新的参数;
”参数“一般用model.parameters()
函数来获取,会获取所有requires_grad=True
的参数
”学习率“:默认为0.001 -
torch.optim.Adam(参数, lr=学习率)
使用优化器
1. 步骤:
step 1. 优化器实例化
step 2. 将所有参数的梯度的值,初始化为0
step 3. 反向传播,更新梯度的值
step 4. 参数值被更新
2. 代码样例:
import optim from torch
#step 1. 优化器实例化
optimizer = optim.SGD(model.parameters(),lr=1e-3)
#待更新参数为model.parameters()
#学习率learning rate = 1e-3
#step 2. 将所有参数的梯度的值,初始化为0
optimizer.zero_grad() #参数归零函数
#step 3. 反向传播,更新梯度的值
loss.backward()
#step 4. 更新参数值
optimizer.step()
优化器的算法介绍
1> 梯度下降法
(1) BGD 梯度下降法 (batch gradient descent)
每次迭代都将所有样本送入,将全局样本的均值作为参考。
简称为:全局优化
缺点: 每次都要跑全部样本,速度慢
(2) SGD 随机梯度下降法(Stochastic gradient descent)
每次从所有样本中,随机抽取一个样本进行学习
优点: 解决了BGD算法 速度慢的问题
缺点: 可能被某个单个异常数据点影响
Python的torch包中的API调用方法: torch.optim.SGD()
(3) MBGD 小批量梯度下降法(Mini-batch gradient descent)
介于(1)和(2)之间的算法,每次选取一组样本进行学习
梯度下降法的劣势:
过于依赖于合适的学习率。
学习率较小时,会导致收敛速度慢;
学习率较大时,会导致有可能跳过最优解,在最值点左右摆动幅度较大
2> AdaGrad
采取动态调整学习率的方法,解决梯度下降法的劣势
【个人理解:就是把 爬山算法 换成了 模拟退火算法 】
3> 动量法 和 RMSProp算法
采取动态调整梯度的移动指数,解决梯度下降法的劣势
【个人理解:也是把 爬山算法 换成了 模拟退火算法 】
4> Adam算法
相当于 AdaGrad法 和 RMSProp法 的结合
优势 更快达到最优解
劣势 有可能学习得更慢(因为最优解很难找到,而前面的算法不一定会找到最优解,而是误差较大的最优解)
Python的torch包中的API调用方法: torch.optim.Adam()