使用 MegEngine Lite 部署模型进阶# MegEngine Lite 功能# MegEngine 的 Inference 是经过长期工业界进行打磨,支持了大量的项目落地沉淀下来的一套功能强大,运行高效,内存友好的推理引擎,在 MegEngine Lite 对 MegEngine 的 Inference 接口进行了一层封装,对用户提供更加友好的接口,目前大概将 MegEngine Lite 的功能分为以下几类: 性能优化 内存优化 二进制库大小优化 跨设备模型运行 模型打包加密功能 文档目录# 性能优化 内存优化 减少 MegEngine Lite 体积 模型加解密和打包(可选) CV 算法示例