v0.1.2
MegCC
以解决 MegEngine 推理库 Binary size 过大为出发点,MegEngine 团队基于 MLIR 开发了一个深度学习模型编译器 MegCC。MegCC 的输入为 MegEngine 的模型,经过编译优化之后生成运行这个模型的高效纯 C kernel,以及优化之后的自定义格式模型。MegCC 具有下特点:
超级轻量的 Binary Size :仅仅只编译 mobilenetV1,stripped 之后的Runtime只有 81KB . 高性能 :所有算子都进过精细优化,Arm 推理性能超过 MegEngine。 移植非常容易 :因为 Runtime 和 Kernel都是纯 C 代码,非常方便部署,支持部署在 Android,TEE 以及无操作系统的单片机上 低内存消耗,快启动 :使用全局图优化,以及在模型编译时候进行了静态绑定,所以内存和启动时间都得到优化
结构框图

支持情况
支持平台
MegCC 目前只支持 CPU 平台:
- Arm64,ArmV7:高度优化
- X86 :部分优化
- risc-v:部分优化
- 单片机:暂时没有优化
支持数据类型:
- float32:高度优化
- int8-dot:高度优化
支持的 Operator List
支持的 Operator List 记录在 Operator List。
MegCC 使用
megcc 文档都集中在megcc的git project的doc下面 文档,文档入口