模型开发(基础篇)
模型开发(进阶篇)
推理部署篇
工具与插件篇
MegEngine 的 Inference 是经过长期工业界进行打磨,支持了大量的项目落地沉淀下来的一套功能强大,运行高效,内存友好的推理引擎,在 MegEngine Lite 对 MegEngine 的 Inference 接口进行了一层封装,对用户提供更加友好的接口,目前大概将 MegEngine Lite 的功能分为以下几类:
性能优化
内存优化
二进制库大小优化
跨设备模型运行
模型打包加密功能
上一页
MegEngine Lite python 接口介绍
下一页