使用 MegEngine Lite 部署模型进阶#
MegEngine Lite 功能#
MegEngine 的 Inference 是经过长期工业界进行打磨,支持了大量的项目落地沉淀下来的一套功能强大,运行高效,内存友好的推理引擎,在 MegEngine Lite 对 MegEngine 的 Inference 接口进行了一层封装,对用户提供更加友好的接口,目前大概将 MegEngine Lite 的功能分为以下几类:
性能优化
内存优化
二进制库大小优化
跨设备模型运行
模型打包加密功能