- 如何使用optimizer
- 算法
- 如何调整学习率
是实现各种优化算法的包。最常用的方法都已经支持,接口很常规,所以以后也可以很容易地集成更复杂的方法。
如何使用optimizer
要使用,您必须构造一个对象。这个对象能保存当前的参数状态并且基于计算梯度更新参数
构建
要构造一个,你必须给它一个包含参数(必须都是对象)进行优化。然后,您可以指定的参 数选项,比如学习率,权重衰减等。
例子:
为每个参数单独设置选项
也支持为每个参数单独设置选项。若想这么做,不要直接传入的,而是传入。每一个都分别定 义了一组参数,并且包含一个键,这个键对应参数的列表。其他的键应该所接受的其他参数的关键字相匹配,并且会被用于对这组参数的 优化。
注意:
您仍然可以将选项作为关键字参数传递。它们将被用作默认值,在不覆盖它们的组中。当您只想改变一个选项,同时保持参数组之间的所有其他选项一致时,这很有用。
例如,当我们想指定每一层的学习率时,这是非常有用的:
这意味着参数将使用默认的学习速率,参数将使用学习速率,并且的将会被用于所有的参数。
进行单次优化
所有的都会实现更新参数的方法。它能按两种方式来使用:
optimizer.step()
这是大多数所支持的简化版本。一旦梯度被如之类的函数计算好后,我们就可以调用该函数。
例子
optimizer.step(closure)
一些优化算法例如和需要重复多次计算函数,因此你需要传入一个闭包去允许它们重新计算你的模型。这个闭包会清空梯度, 计算损失,然后返回。
例子:
算法
所有优化的基类.
参数:
- params (iterable) —— 可迭代的 或者 。指定应优化哪些变量。
- defaults-(dict):包含优化选项的默认值的dict(一个参数组没有指定的参数选项将会使用默认值)。
加载状态
参数:
- state_dict (dict) —— 的状态。应该是调用返回的对象。
将优化器的状态返回为一个。
它包含两个内容:
- state - 持有当前状态的。它包含了
优化器类之间的不同。
- param_groups - 一个包含了所有参数组的。
执行单个优化步骤(参数更新)。
参数:
- closure (callable,可选) – 重新评估模型并返回损失的闭包。hon
zero_grad()
清除所有优化过的的梯度。
实现算法。
ADADELTA中提出了一种自适应学习速率法。
参数:
- params (iterable) – 用于优化的可以迭代参数或定义参数组
- rho (float, 可选) – 用于计算平方梯度的运行平均值的系数(默认值:0.9)
- eps (float, 可选) – 增加到分母中以提高数值稳定性的术语(默认值:1e-6)
- lr (float, 可选) – 将delta应用于参数之前缩放的系数(默认值:1.0)
- weight_decay (float, 可选) – 权重衰减 (L2范数)(默认值: 0)
执行单个优化步骤。
参数:
- closure (callable,可选) – 重新评估模型并返回损失的闭包。
实现Adagrad算法。
在在线学习和随机优化的自适应子梯度方法中被提出。
参数:
- params (iterable) – 用于优化的可以迭代参数或定义参数组
- lr (float, 可选) – 学习率(默认: 1e-2)
- lr_decay (float, 可选) – 学习率衰减(默认: 0)
- weight_decay (float, 可选) – 权重衰减(L2范数)(默认: 0)
执行单个优化步骤。
参数:
- closure (callable,可选) – 重新评估模型并返回损失的闭包。
实现Adam算法。
它在Adam: A Method for Stochastic Optimization中被提出。
参数:
- params (iterable) – 用于优化的可以迭代参数或定义参数组
- lr (float, 可选) – 学习率(默认:1e-3)
- betas (Tuple[float, float], 可选) – 用于计算梯度运行平均值及其平方的系数(默认:0.9,0.999)
- eps (float, 可选) – 增加分母的数值以提高数值稳定性(默认:1e-8)
- weight_decay (float, 可选) – 权重衰减(L2范数)(默认: 0)
执行单个优化步骤。
参数:
- closure (callable,可选) – 重新评估模型并返回损失的闭包。
实现算法(Adam的一种基于无穷范数的变种)。
它在Adam: A Method for Stochastic Optimization中被提出。
参数:
- params (iterable) – 用于优化的可以迭代参数或定义参数组
- lr (float, 可选) – 学习率(默认:2e-3)
- betas (Tuple[float, float], 可选) – 用于计算梯度以及梯度平方的运行平均值的系数
- eps (float, 可选) – 增加分母的数值以提高数值稳定性(默认:1e-8)
- weight_decay (float, 可选) – 权重衰减(L2范数)(默认: 0)
执行单个优化步骤。
参数:
- closure (callable,可选) – 重新评估模型并返回损失的闭包。
实现平均随机梯度下降。
它在Acceleration of stochastic approximation by averaging中被提出。
参数:
- params (iterable) – 用于优化的可以迭代参数或定义参数组
- lr (float, 可选) – 学习率(默认:1e-2)
- lambd (float, 可选) – 衰减期(默认:1e-4)
- alpha (float, 可选) – eta更新的指数(默认:0.75)
- t0 (float, 可选) – 指明在哪一次开始平均化(默认:1e6)
- weight_decay (float, 可选) – 权重衰减(L2范数)(默认: 0)
执行单个优化步骤。
参数:
- closure (callable,可选) – 重新评估模型并返回损失的闭包。
实现L-BFGS算法。
警告:
这个optimizer不支持为每个参数单独设置选项以及不支持参数组(只能有一个)
现在所有参数必须在单个设备上。将来会有所改善。
注意:
这是一个内存高度密集的optimizer(它要求额外的 个字节)。如果它不适应内存,尝试减小history size,或者使用不同的算法。
参数:
- lr (float) – 学习率(默认:1)
- max_iter (int) – 每个优化步骤的最大迭代次数(默认:20))
- max_eval (int) – 每个优化步骤的最大函数评估次数(默认:max * 1.25)
- tolerance_grad (float) – 一阶最优的终止容忍度(默认:1e-5)
- tolerance_change (float) – 功能值/参数更改的终止公差(默认:1e-9)
- history_size (int) – 更新历史记录大小(默认:100)
执行单个优化步骤。
参数:
- closure (callable,可选) – 重新评估模型并返回损失的闭包。
实现算法。
由在他的课程中提出.
中心版本首次出现在Generating Sequences With Recurrent Neural Networks.
参数:
- params (iterable) – 用于优化的可以迭代参数或定义参数组
- lr (float, 可选) – 学习率(默认:1e-2)
- momentum (float, 可选) – 动量因子(默认:0)
- alpha (float, 可选) – 平滑常数(默认:0.99)
- eps (float, 可选) – 增加分母的数值以提高数值稳定性(默认:1e-8)
- centered (bool, 可选) – 如果为True,计算中心化的RMSProp,通过其方差的估计来对梯度进行归一化
- weight_decay (float, 可选) – 权重衰减(L2范数)(默认: 0)
执行单个优化步骤。
参数:
- closure (callable,可选) – 重新评估模型并返回损失的闭包。
实现弹性反向传播算法。
参数:
- params (iterable) – 用于优化的可以迭代参数或定义参数组
- lr (float, 可选) – 学习率(默认:1e-2)
- etas (Tuple[float, float], 可选) – 一对(etaminus,etaplis), 它们是乘数增加和减少因子(默认:0.5,1.2)
- step_sizes (Tuple[float, float], 可选) – 允许的一对最小和最大的步长(默认:1e-6,50)
执行单个优化步骤。
参数:
- closure (callable,可选) – 重新评估模型并返回损失的闭包。
实现随机梯度下降算法(momentum可选)。
Nesterov动量基于On the importance of initialization and momentum in deep learning中的公式.
参数:
- params (iterable) – 用于优化的可以迭代参数或定义参数组
- lr (float) – 学习率
- momentum (float, 可选) – 动量因子(默认:0)
- weight_decay (float, 可选) – 权重衰减(L2范数)(默认:0)
- dampening (float, 可选) – 动量的抑制因子(默认:0)
- nesterov (bool, 可选) – 使用Nesterov动量(默认:False)
例子:
提示:
带有动量/Nesterov的SGD的实现稍微不同于Sutskever等人以及其他框架中的实现。
考虑到Momentum的具体情况,更新可以写成
v=ρ?v+g
p=p?lr?v
其中,p、g、v和ρ分别是参数、梯度、速度和动量。
这是在对比Sutskever et. al。和其他框架采用该形式的更新
v=ρ?v+lr?g
p=p?v
Nesterov版本被类似地修改。
执行单个优化步骤。
参数:
- closure (callable,可选) – 重新评估模型并返回损失的闭包。
如何调整学习率
提供了几种方法来根据epoches的数量调整学习率。
允许基于一些验证测量来降低动态学习速率。
将每个参数组的学习速率设置为初始的lr乘以一个给定的函数。当last_epoch=-1时,将初始lr设置为lr。
参数:
- optimizer (Optimizer) – 包装的优化器。
- lr_lambda (function or list) – 一个函数来计算一个乘法因子给定一个整数参数的,或列表等功能,为每个组。
- last_epoch (int) – 最后一个时期的索引。默认: -1.
例子:
将每个参数组的学习速率设置为每个step_size时间段由gamma衰减的初始lr。当last_epoch=-1时,将初始lr设置为lr。
- optimizer (Optimizer) – 包装的优化器。
- step_size (int) – 学习率衰减期。
- gamma (float) – 学习率衰减的乘积因子。默认值:-0.1。
- last_epoch (int) – 最后一个时代的指数。默认值:1。
例子:
一旦时间的数量达到一个里程碑,则将每个参数组的学习率设置为伽玛衰减的初始值。当last_epoch=-1时,将初始lr设置为lr。
参数:
- optimizer (Optimizer) – 包装的优化器。
- milestones (list) – 时期指标的列表。必须增加。
- gamma (float) – 学习率衰减的乘积因子。 默认: -0.1.
- last_epoch (int) – 最后一个时代的指数。 默认: -1.
例子:
将每个参数组的学习速率设置为每一个时代的初始lr衰减。当last_epoch=-1时,将初始lr设置为lr。
- optimizer (Optimizer) – 包装的优化器。
- gamma (float) – 学习率衰减的乘积因子。
- last_epoch (int) – 最后一个指数。默认: -1.
当指标停止改善时,降低学习率。当学习停滞不前时,模型往往会使学习速度降低2-10倍。这个调度程序读取一个指标量,如果没有提高epochs的数量,学习率就会降低。
- optimizer (Optimizer) – 包装的优化器。
- mode (str) – min, max中的一个. 在最小模式下,当监测量停止下降时,lr将减少; 在最大模式下,当监控量停止增加时,会减少。默认值:'min'。
- factor (float) – 使学习率降低的因素。 new_lr=lr * factor. 默认: 0.1.
- patience (int) –epochs没有改善后,学习率将降低。 默认: 10.
- verbose (bool) – 如果为True,则会向每个更新的stdout打印一条消息。 默认: False.
- threshold (float) – 测量新的最优值的阈值,只关注显着变化。 默认: 1e-4.
- threshold_mode (str) – rel, abs中的一个. 在rel模型, dynamic_threshold=best ( 1 + threshold ) in ‘max’ mode or best ( 1 - threshold ) 在最小模型. 在绝对值模型中, dynamic_threshold=best + threshold 在最大模式或最佳阈值最小模式. 默认: ‘rel’.
- cooldown (int) – 在lr减少后恢复正常运行之前等待的时期数。默认的: 0.
- min_lr (float or list) – 标量或标量的列表。对所有的组群或每组的学习速率的一个较低的限制。 默认: 0.
- eps (float) – 适用于lr的最小衰减。如果新旧lr之间的差异小于eps,则更新将被忽略。默认: 1e-8.