MegEngine 使用指南
所有版本 Release Note
框架版本
Stable
操作系统
Linux_64(LIBC>=2.2.5)
Windows-x64(>=win7)
MacOS(>=10.14)
硬件平台
CUDA 11.1
CUDA 11.4 - beta
CUDA 11.8
CPU
安装方式
pip (19.0及以上)
源码编译
MegEngine 深度学习框架
更多内容
训练推理一体
- 一套内核支撑训练到推理,无需模型转换,精度损失最小化。
- 前后处理可放入计算图推理,训练推理精确对齐,python C++ 不用写两遍。
- traced module → megengine lite → megflow,从模型到高并发视频流处理服务只需几行python代码。
超低硬件门槛
- DTR 算法减少 75% 显存占用,1080 也能训 transformer。
- 自研 pushdown 内存分配算法,带来最低的内存/显存占用。
- 自动代码裁剪可使部署文件 binary size 下降 10 倍,有效降低推理硬件成本。
全平台高效推理
- 高效的推理性能,在各类 CPU、GPU 上均可享受到极致性能体验。
- 自动 layout、kernel 算法选择机制,轻松达到最优推理性能。
- 跨平台模型精度对齐,一套代码走天下。
MegEngine 生态
更多内容
构建、训练、验证
推理、调优、部署
MegEngine Lite C/C++
利用 Lite C / C++ 接口进行高性能推理。
mperf
mperf 是一个微架构层次的算子性能调优工具箱,主要面向移动/嵌入式平台的 CPU/GPU
核心,目标是“为构建一个更接近闭环的算子调优反馈回路”提供系列基础工具。
MegPeak
MegPeak
是一个进行高性能计算的辅助工具,能够使得开发人员轻松获得目标处理器的内在的详细信息,辅助进行对代码的性能评估,以及优化方法设计。
MegCC
MegCC 是一个运行时超轻量,高效,移植简单的深度学习模型编译器。
MgeConvert
MgeConvert 是 MegEngine 和第三方格式之间实现互联互通的转换工具。
MegEngine Lite Rust
利用 rust 接口进行高性能推理。
MegEngine Lite Python
利用 Lite Python 接口进行更高性能的推理。
MegFlow
MegFlow 流式计算框架,助力 AI 应用快速落地,简化模型交付流程,实现 15
分钟完成定制化功能。
MegEngine 赋能
虚拟试妆
- 足不出户的挑选心仪的美妆产品
- 精准追踪面部关键点,如眼、鼻、嘴、甚至睫毛的位置
- 实时呈现嘴唇、脸颊或眉毛等部位的上妆效果
MegEngine 使用指南
所有版本 Release Note
框架版本
Stable
操作系统
Linux_64(LIBC>=2.2.5)
Windows-x64(>=win7)
MacOS(>=10.14)
硬件平台
CUDA 11.1
CUDA 11.4 - beta
CUDA 11.8
CPU
安装方式
pip (19.0及以上)
源码编译
MegEngine 深度学习框架
更多内容
MegEngine 生态
更多内容
构建、训练、验证
推理、调优、部署
MegCC
MegCC 是一个运行时超轻量,高效,移植简单的深度学习模型编译器。
MgeConvert
MgeConvert 是 MegEngine 和第三方格式之间实现互联互通的转换工具。
MegPeak
MegPeak
是一个进行高性能计算的辅助工具,能够使得开发人员轻松获得目标处理器的内在的详细信息,辅助进行对代码的性能评估,以及优化方法设计。
mperf
mperf 是一个微架构层次的算子性能调优工具箱,主要面向移动/嵌入式平台的 CPU/GPU
核心,目标是“为构建一个更接近闭环的算子调优反馈回路”提供系列基础工具。
MegFlow
MegFlow 流式计算框架,助力 AI 应用快速落地,简化模型交付流程,实现 15
分钟完成定制化功能。
MegEngine Lite C/C++
MegEngine Lite Rust
MegEngine Lite Python
利用 Lite Python 接口进行更高性能的推理。
库
平台
MegStudio
基于旷视研究院领先的深度学习算法,提供满足多业务场景的 预训练模型。
MegLab
移动端小程序,提供黑科技 AI 趣味体验,快速感知 AI 魅力。
MegEngine 赋能