megengine.utils.network.Network.dump

Network.dump(file, *, keep_var_name=1, keep_opr_name=False, keep_param_name=False, keep_opr_priority=False, strip_info_file=None, append_json=False, optimize_for_inference=True, append=False, user_info=None, enable_metadata=True, **kwargs)[源代码]

把网络保存为模型文件。

参数
  • file – 输出文件,可以是文件对象或文件名

  • append – 是否在 file 后追加输出。仅当 file 是文件名时可用。

  • keep_var_name (int) – 保留变量名的级别:

  • keep_opr_name (bool) – 是否要保留算子的名字。

  • keep_param_name (bool) – 是否要保留参数的名字,为了加载模型后可以简单地对参数做操作。

  • keep_opr_priority (bool) – 是否保留算子的优先级设置。

  • strip_info_file – 路径地址或文件句柄。如果不为空,则导出的代码条信息会被写入 strip_info_file 中。

  • append_json – 当 strip_info_file 非空时会做检查。如果是真,代码条信息就会被添加到 strip_info_file 的尾部;如果是假,就会覆盖掉 strip_info_file.

  • optimize_for_inference – 打开推理优化,如果是False则关闭所有优化选项。默认:True

  • user_info (Optional[Any]) – any type object, which will be pickled to bytes.

  • enable_metadata – whether to save metadata into output file.

See more detials in dump.