Load and run Python 接口¶
Python 版 Load and Run 的主要功能和用法与 C++ 版本 基本一致。
命令行中输入以下命令可以看到全部参数的列表与介绍:
python -m megengine.tools.load_network_and_run --help
参数列表及简介如下:
net
必需参数 ,指定 mge graph 文件路径
--output-name [OUTPUT_NAME [OUTPUT_NAME ...]]
指定用于测速的网络输出数据节点的名字,可用空格分隔指定多个,不指定则为网络编译 dump 时的输出
--load-input-data LOAD_INPUT_DATA
指定用作输入的 inputs data 文件路径,内容应该为 pickle 化的 numpy array 或者含 np array 的 dict,key 为 inputs 节点名
--input-desc INPUT_DESC
对于未指定 –load-input-data 的情况,会根据的 INPUT_DESC 指定的 shape 来随机生成数据,如果不指定,则会根据图中节点的 shape 来生成
--batchsize BATCHSIZE
类似 –input-desc,但是只指定 batchsize
--seed SEED
指定生成随机 inputs 数据的随机数种子
--rng RNG
指定生成随机数的配置,包括范围、大小等,也可用 python function 指定,指定大小时应确保与 inputs shape 一致
--profile PROFILE
开启后使用 GraphProfiler 记录 profile 信息,并将结果的 json 内容写到 PROFILE 文件路径中,可后续用于 profile_analyze.py 分析
--focused-nvprof
会在最后额外跑一个用 pycuda.driver profiler 包起来的 iter,用于外部 nvprof 进行测速
--warm-up
在开始测速前,先跑一个迭代,减少设备缓存等因素带来的性能影响
--iter ITER
正式运行测速的迭代数
--calc-output-rms
在运行日志中附带 outputs RMS(root meam square) 值的结果,用于快速比较两次输出结果是否一致
--device
(目前无效)指定 mge graph 加载时使用的 device,等同于 MGE_DEFAULT_DEVICE 环境变量
--fast-run
设置网络中 conv、matmul 等支持修改 execution strategy 选项的算子的执行算法,开启后会对当前平台的多个算法进行运行测速,选出最快的算法
--reproducible
影响 –fast-run 选项中的算法选择,开启后只选择带”reproducible”标签的算法进行比较
--optimize-for-inference 以及配套的 --enable-xxx 参数
对 mge graph 进行优化,会导致图节点被替换、修改,可参考 Inference optimization options table 。
--embed-input
是否将 inputs data 作为 SharedDeviceTensor 嵌入网络中替换 Host2Device 节点,以兼容 C++ 版 load-and-run, 不开启时 h2d 会被替换为 InputCallback 节点以支持 set_value
--dump-cpp-model DUMP_CPP_MODEL
在依次做完fast-run修改、optimize、embed-inputs等操作后,添加output callback前,将网络进行 dump
--verbose, -v
设置 log level 为 DEBUG,输出更多信息(包括 fast-run 测速过程等)
--log LOG
指定 log 输出的保存路径,不指定则不保存