megengine.utils.network.Network.dump¶
- Network.dump(file, *, keep_var_name=1, keep_opr_name=False, keep_param_name=False, keep_opr_priority=False, strip_info_file=None, append_json=False, optimize_for_inference=True, append=False, user_info=None, enable_metadata=True, **kwargs)[源代码]¶
把网络保存为模型文件。
- 参数
file – 输出文件,可以是文件对象或文件名
append – 是否在
file
后追加输出。仅当file
是文件名时可用。keep_var_name (
int
) – 保留变量名的级别:keep_opr_name (
bool
) – 是否要保留算子的名字。keep_param_name (
bool
) – 是否要保留参数的名字,为了加载模型后可以简单地对参数做操作。keep_opr_priority (
bool
) – 是否保留算子的优先级设置。strip_info_file – 路径地址或文件句柄。如果不为空,则导出的代码条信息会被写入
strip_info_file
中。append_json – 当 strip_info_file 非空时会做检查。如果是真,代码条信息就会被添加到 strip_info_file 的尾部;如果是假,就会覆盖掉 strip_info_file.
optimize_for_inference – 打开推理优化,如果是False则关闭所有优化选项。默认:True
user_info (
Optional
[Any
]) – any type object, which will be pickled to bytes.enable_metadata – whether to save metadata into output file.
See more detials in
dump
.