megengine.optimizer.MultiStepLR

class MultiStepLR(optimizer, milestones, gamma=0.1, current_epoch=- 1)[源代码]
以gamma为倍率阶梯式衰减各参数组的学习率

当epoch的数目达到milestones之一时,才会执行。

参数
  • optimizer (Optimizer) – 包装后的优化器。

  • milestones (Iterable[int]) – epoch索引列表。必须按递增排序。

  • gamma (float) – 学习率衰减的乘数因子。默认:0.1

  • current_epoch (int) – 当前epoch的索引。默认:-1

方法

get_lr()

计算当前调度器(scheduler)的学习率。

load_state_dict(state_dict)

加载调度器(scheduler)的状态。

state_dict()

dict 的形式返回调度器的状态。

step([epoch])