新手入门
用户指南
API 参考
开发者指南
论坛
官网
GitHub
Bilibili
如何安装 MegEngine
用户迁移指南
MegEngine for NumPy users
MegEngine for PyTorch users
常见问题汇总
显存使用常见问题
模型复现常见问题
模型开发(基础篇)
深入理解 Tensor 数据结构
Rank, Axes 与 Shape 属性
Tensor 元素索引
Tensor 数据类型
Tensor 所在设备
Tensor 具象化举例
Tensor 内存布局
使用 Functional 操作与计算
如何创建一个 Tensor
如何对 Tensor 进行操作
如何用 Tenosr 进行科学运算
使用 Data 构建输入 Pipeline
使用 Dataset 定义数据集
使用 Sampler 定义抽样规则
使用 Transform 定义数据变换
使用 Collator 定义合并策略
使用 Module 定义模型结构
Module 基类概念与接口介绍
Autodiff 基本原理与使用
Autodiff 高阶使用
使用 Optimizer 优化参数
参数优化进阶配置
保存与加载模型(S&L)
使用 Hub 发布和加载预训练模型
模型开发(进阶篇)
通过重计算节省显存(Recomputation)
使用 DTR 进行显存优化
使用 Sublinear 进行显存优化
分布式训练(Distributed Training)
量化(Quantization)
量化方案原理讲解
自动混合精度(AMP)
使用 NHWC 格式进一步提速
模型性能数据生成与分析(Profiler)
使用 TracedModule 发版
快速上手 TracedModule
TracedModule 基本概念
TracedModule 接口介绍
TracedModule 常见图手术
即时编译(JIT)
将动态图转为静态图(Trace)
导出序列化模型文件(Dump)
使用 XLA 作为编译后端加速模型训练
推理部署篇
模型部署总览与流程建议
使用 MegEngine Lite 部署模型
获得用于 MegEngine Lite 推理的模型
MegEngine Lite C++ 模型部署快速上手
MegEngine Lite Python 部署模型快速上手
MegEngine Lite 使用接口
MegEngine Lite C++ 接口介绍
MegEngine Lite python 接口介绍
使用 MegEngine Lite 部署模型进阶
性能优化
输入输出内存拷贝优化
执行性能优化
内存优化
减少 MegEngine Lite 体积
模型加解密和打包(可选)
CV 算法示例
使用 Load and run 测试与验证模型
Load and run 简单入门
Load and run 设置选项列表及说明
使用 Load and run 进行推理优化实验
使用 Load and run 进行模型性能分析
使用 Load and run 进行精度分析
使用 Load and run debug 模型推理
Load and run Python 接口
使用 Load and run 自动获取最优推理加速配置参数
工具与插件篇
参数和计算量统计与可视化
MegEngine 模型可视化
RuntimeOpr 使用说明
自定义算子(Custom Op)
On this page
文档目录
Edit this page
MegEngine Lite 使用接口
¶
文档目录
¶
MegEngine Lite C++ 接口介绍
Tensor 相关 API
Network 相关 API
Network Runtime 配置
Global 配置
MegEngine Lite python 接口介绍
LiteTensor 相关 API
LiteNetwork 相关 API
全局设置相关 API
Utils API
上一页
MegEngine Lite Python 部署模型快速上手
下一页
MegEngine Lite C++ 接口介绍