megengine.optimizer.Adagrad¶
- class Adagrad(params, lr=0.01, lr_decay=0.0, eps=1e-10, weight_decay=0.0)[源代码]¶
实现Adagrad算法。
这已经在 “Adaptive Subgradient Methods for Online Learning and Stochastic Optimization” <http://jmlr.org/papers/v12/duchi11a.html> _ 中被提出。
- 参数
方法
add_param_group
(param_group)向
Optimizer
的param_groups
中添加一组参数。backward
(loss)把所有参数的梯度属性设置为 None。
load_state_dict
(state)加载优化器状态。
state_dict
([keep_var])导出优化器状态。
step
()执行单一优化步骤。
1.0 版后已移除.