Skip to main content
Ctrl+K
MegEngine 1.13.2 文档 - Home

Site Navigation

  • 新手入门
  • 用户指南
  • 开发者指南
  • 论坛
  • 官网
  • GitHub
  • Bilibili

Site Navigation

  • 新手入门
  • 用户指南
  • 开发者指南
  • 论坛
  • 官网
  • GitHub
  • Bilibili

Section Navigation

  • 如何安装 MegEngine
  • 用户迁移指南
    • MegEngine for NumPy users
    • MegEngine for PyTorch users
  • 常见问题汇总
    • 显存使用常见问题
    • 模型复现常见问题

模型开发(基础篇)

  • 深入理解 Tensor 数据结构
    • Rank, Axes 与 Shape 属性
    • Tensor 元素索引
    • Tensor 数据类型
    • Tensor 所在设备
    • Tensor 具象化举例
    • Tensor 内存布局
  • 使用 Functional 操作与计算
    • 如何创建一个 Tensor
    • 如何对 Tensor 进行操作
    • 如何用 Tenosr 进行科学运算
  • 使用 Data 构建输入 Pipeline
    • 使用 Dataset 定义数据集
    • 使用 Sampler 定义抽样规则
    • 使用 Transform 定义数据变换
    • 使用 Collator 定义合并策略
  • 使用 Module 定义模型结构
    • Module 基类概念与接口介绍
  • Autodiff 基本原理与使用
    • Autodiff 高阶使用
  • 使用 Optimizer 优化参数
    • 参数优化进阶配置
  • 保存与加载模型(S&L)
  • 使用 Hub 发布和加载预训练模型

模型开发(进阶篇)

  • 通过重计算节省显存(Recomputation)
    • 使用 DTR 进行显存优化
    • 使用 Sublinear 进行显存优化
  • 分布式训练(Distributed Training)
  • 量化(Quantization)
    • 量化方案原理讲解
  • 自动混合精度(AMP)
    • 使用 NHWC 格式进一步提速
  • 模型性能数据生成与分析(Profiler)
  • 使用 TracedModule 发版
    • 快速上手 TracedModule
    • TracedModule 基本概念
    • TracedModule 接口介绍
    • TracedModule 常见图手术
  • 即时编译(JIT)
    • 将动态图转为静态图(Trace)
    • 导出序列化模型文件(Dump)
    • 使用 XLA 作为编译后端加速模型训练

推理部署篇

  • 模型部署总览与流程建议
  • 使用 MegEngine Lite 部署模型
    • 获得用于 MegEngine Lite 推理的模型
    • MegEngine Lite C++ 模型部署快速上手
    • MegEngine Lite Python 部署模型快速上手
  • MegEngine Lite 使用接口
    • MegEngine Lite C++ 接口介绍
    • MegEngine Lite python 接口介绍
  • 使用 MegEngine Lite 部署模型进阶
    • 性能优化
      • 输入输出内存拷贝优化
      • 执行性能优化
    • 内存优化
    • 减少 MegEngine Lite 体积
    • 模型加解密和打包(可选)
    • CV 算法示例
  • 使用 Load and run 测试与验证模型
    • Load and run 简单入门
    • Load and run 设置选项列表及说明
    • 使用 Load and run 进行推理优化实验
    • 使用 Load and run 进行模型性能分析
    • 使用 Load and run 进行精度分析
    • 使用 Load and run debug 模型推理
    • Load and run Python 接口
    • 使用 Load and run 自动获取最优推理加速配置参数

工具与插件篇

  • 参数和计算量统计与可视化
  • MegEngine 模型可视化
  • RuntimeOpr 使用说明
  • 自定义算子(Custom Op)
  • 用户指南
  • MegEngine Lite 使用接口

MegEngine Lite 使用接口#

文档目录#

  • MegEngine Lite C++ 接口介绍
    • Tensor 相关 API
    • Network 相关 API
    • Network Runtime 配置
    • Global 配置
  • MegEngine Lite python 接口介绍
    • LiteTensor 相关 API
    • LiteNetwork 相关 API
    • 全局设置相关 API
    • Utils API

上一页

MegEngine Lite Python 部署模型快速上手

下一页

MegEngine Lite C++ 接口介绍

On this page
  • 文档目录
Edit on GitHub
显示源代码