TVM Meetup Nov. 16th - Linaro
1.23 MB
7 页
0 评论
语言 | 格式 | 评分 |
---|---|---|
zh | .pdf | 3 |
摘要 | ||
文档介绍了Linaro AI/ML团队与TVM在Arm平台上的合作,目标是通过与Arm生态系统中的硬件和软件框架紧密合作,提供最佳深度学习性能。重点包括:在Arm平台上支持多种加速器配置;探讨Arm NN、ACL、CMSIS-NN与TVM的集成方式,如优化内核集成、后端实现及代码生成;以及在Arm硬件平台上的CI和基准测试。文档还提到TVM对Arm平台的支持情况,包括CPU、GPU、FPGA等硬件目标,并列举了具体支持的开发板和模型。 | ||
AI总结 | ||
《TVM Meetup Nov. 16th - Linaro》会议总结如下:
### 会议概述
会议主题为TVM与Arm生态系统的合作,主讲人为Linaro的Jammy Zhou,会议时间为2019年11月16日。会议旨在通过Linaro AI Initiative,结合Arm生态系统中的IP和SoC神经网络加速,提升深度学习性能,并与AI/ML软件框架和库实现无缝集成。
### 关键内容
1. **Linaro AI Initiative目标**
- 提供基于Arm的最佳深度学习性能,通过Arm生态系统中的神经网络加速实现。
- 与TVM在Arm平台上开展合作,支持多种加速器配置(从微控制器到高性能计算)。
2. **合作伙伴与硬件支持**
- Arm:Cortex-A/Cortex-M/Neoverse CPU,Mali GPU,Ethos NPU。
- Qualcomm:Hexagon DSP,Adreno GPU。
- 其他合作伙伴包括Hisilicon、Xilinx、NXP、TI、ST、Fujitsu、Riken等。
- 硬件支持:包括Pixel2、Mate10、P20、Firefly RK3399、Raspberry Pi 3B、HiKey960等多款设备。
3. **TVM与Arm平台的集成**
- Arm Compute Library(ACL)和CMSIS-NN内核优化集成到TVM。
- 实现Arm NN通用后端,增强TVM的灵活性。
- 将TVM代码生成集成到Arm NN中,提升性能。
4. **CI与Benchmark测试**
- 在Linaro成员硬件平台上进行持续集成和测试,确保TVM对Arm平台的支持。
- 建议维护TVM支持的Arm平台清单,更多细节将在TVM Conference 2019中披露。
5. **Arm NN开源项目**
- 由Linaro托管,包含Arm Compute Library、Arm NN和Android NN Driver。
- Arm Compute Library已被MATLAB Coder和ONNX Runtime集成。
### 结语
会议呼吁通过加入Linaro,共同加速基于Arm的解决方案部署,推动更广泛的协作。
如需更多信息,可联系:contact@linaro.org。 |
P1
P2
P3
P4
P5
P6
P7
下载文档到本地,方便使用
文档评分