金枪鱼之夜:来听MegEngine「王牌客服」聊框架的那些故事
AI 浪潮一波又一波,仿佛不会算法就落后于时代。深度学习框架处理了各种设备的计算细节、求导、计算优化序列的工作,而在动态、静态两套截然不同的世界中,这些步骤又各自有他们不同的优化点和瓶颈。如何在中间获取一个高效的平衡呢?以及如何克服训练完的模型在推理部署中无数的坑(闻者落泪),那个堪称对此进行降维打击的“训练推理一体化”到为何物?
受清华大学学生网络与开源软件协会(TUNA)邀请,8月22日,旷视研究院 AI 系统高级技术总监、天元(MegEngine) 技术负责人许欣然(人称XXR,即是在开发者群中,同学好奇的那位各种解答大家疑问的“王牌客服”),将与大家分享MegEngine开发过程中的那些事儿,并介绍关于MegEngine和深度学习框架设计的基本知识,欢迎一起来玩!
主讲人:许欣然
时间:2020/08/22 19:00 UTC +08:00
活动形式:线上会议 + 直播
Zoom:990 9174 0940
Zoom 直播:https://live.bilibili.com/22436423
分享内容
MegEngine 天元作为旷视全员自用6年的自研深度学习框架,是一个在淘金热时,坚持选择卖铲子的团队。这次讲座,我们邀请了旷视研究院 AI 系统高级技术总监、MegEngine 技术负责人许欣然作为主讲人。他将带我们了解一个深度学习框架是如何把网络的定义逐步优化并最终执行的,从框架开发者的视角来看待深度学习。
分享大纲
背景介绍
深度学习框架是干啥的?
道理我都懂,为什么又搞一个深度学习框架?
你们为啥不用 PyTorch / TensorFlow?
训推一体是个啥玩意?
如何写出一个深度学习框架?(超简化版)
动态图训练
调用 = 执行
依赖关系图 forward & backward
megdnn kernel
exec
Shape Deduce
静态图训练 + 推理(粗糙版)
Tensor
Graph、SymborVar
CompNode
Shape Inference
Graph Optimization
拓扑排序
内存优化
Computing Sequence
一个陈年静态图框架是怎么变成动态图框架的?
Dynamic Region
Eager Graph
Eager Runtime + Proxy Graph
对未来的展望
各种芯片模组的对接,挑战训推一体的理念
MLIR 等技术的兴起
如何做到真 JIT
报名 & 提问
注:如有准备好的问题,可扫描下方二维码预先提出。
天元开发者交流群
欢迎访问
MegEngine WebSite:
https://megengine.org.cnMegEngine GitHub(欢迎Star):
https://github.com/MegEngine
或加入「天元开发者交流QQ群」,一起看直播学理论、做作业动手实践、直接与框架设计师交流互动。
同时,群内还会不定期给大家发放各种福利:学习礼包、算力、周边等。
传送门
实习生简历投通道请点击→这里
欢迎大家关注如下 旷视研究院 官方微信号????