论文导读、会议精选:SysML2018,SysML2019

先简单介绍一下SysML会议,2018年新成立的一个聚焦在机器学习系统、软件、硬件等综合领域研究的一个学术会议。由一堆学术界和工业界大佬抱团组建。从18年发布的一篇Machine Learning System(机器学习系统)白皮书可以看到。

论文导读、会议精选:SysML2018,SysML2019

ModelBatch has two key components:

  • Shared preprocessing: Preprocessing performed on the CPU, and
    shared among the different models. After preprocessing, processed
    tensors are moved to the GPU asynchronously; this communication is
    overlapped with compute using double buffering
  • Parallel model training: Performed on the GPU on a per-model basis,
    contains operations like convolutions, matrix multiplications, and
    pooling. Kernels launched in parallel using CUDA streams

效果非常直观,能喂饱GPU就能提升性能,特别在推理中的效果比训练更好。未来工作作者也简单讨论了下:

  1. 包括RNN类网络的并行
  2. 在不相同model训练场景下如何用该技术因为模型的结束时间会差很多,这个怎么调整呢想想应该是用异步启动,前面的model结束后可以新起model来补充GPU利用率)
  3. 分布式训练中能不能用modelbatch一个情况是,我们可以天然把通信藏在多个模型的训练计算中,通信虽然有delay,但是其他model还在跑计算,所以实际上并没有完全浪费。

论文导读、会议精选:SysML2018,SysML2019

2、待补充。

参考资料

[1] 机器学习 + 系统 : 一个新的方向,https://zhuanlan.zhihu.com/p/61786615

来源:大饼博士X

声明:本站部分文章及图片转载于互联网,内容版权归原作者所有,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!

上一篇 2019年10月1日
下一篇 2019年10月1日

相关推荐