megengine.optimizer.Adagrad

class Adagrad(params, lr=0.01, lr_decay=0.0, eps=1e-10, weight_decay=0.0)[源代码]

实现Adagrad算法。

这已经在 “Adaptive Subgradient Methods for Online Learning and Stochastic Optimization” <http://jmlr.org/papers/v12/duchi11a.html> _ 中被提出。

参数
  • params (Union[Iterable[Parameter], dict]) – 可迭代对象,可以是一组待优化的参数,或定义几组参数的dict类型。

  • lr (float) – 在将delta应用于参数之前缩放比例系数。默认: 1e-2

  • lr_decay (float) – 学习率衰减的乘数因子。默认: 0

  • eps (float) – 加到分母上以提高数值稳定性的值。默认: 1e-10

  • weight_decay (float) – 权重衰减(L2惩罚)。默认:0

方法

add_param_group(param_group)

Optimizerparam_groups 中添加一组参数。

backward(loss)

bcast_param()

clear_grad()

把所有参数的梯度属性设置为 None。

load_state_dict(state)

加载优化器状态。

state_dict([keep_var])

导出优化器状态。

step()

执行单一优化步骤。

zero_grad()

1.0 版后已移除.