本周AI热点回顾:英伟达A100训练速度可达V100的3.5倍;飞桨框架支持ONNX协议?保存模型

点击左上方蓝字关注我们

本周AI热点回顾:英伟达A100训练速度可达V100的3.5倍;飞桨框架支持ONNX协议?保存模型

数据来源:IDC《深度学习框架和平台市场份额》2020.12。

报告指出,在机器学习平台方面,百度 EasyDL 的用户认知度最高,也是受访者使用频率最高的平台

据统计,自 2017 年推出以来,百度 EasyDL 已经累计服务了 70 多万的用户,覆盖 20 多个行业,得到了大量企业与个人开发者的广泛认可与应用。

其实,随着 AI 技术落地的不断深入,市场上已经涌现出多款致力于降低 AI 应用门槛的训练和服务平台。

从技术到硬件,从场景到应用,通过百度 AI to B 的重要承载者和输出者——百度智能云,为各行各业大规模输送百度的 AI 技术成果与平台能力,支持产业智能化升级。百度智能云拥有中国最领先的 AI 开放平台,日调用量突破 1 万亿,已开放超过 270 项 AI 能力,培养了超过 100 万人工智能领域的从业者,这个规模也在持续快速增长。

有了这样坚实的支撑,百度 EasyDL 连续两年保持市场第一也是意料之中。

信息来源:机器之心

02

AI远程监考软件Proctorio惹争议,UIUC宣布下学期停用该服务

出于对隐私、歧视、数据安全和可访问性的考虑,伊利诺伊大学香槟分校(UIUC)宣布将在 2021 夏季学期结束后停用远程监考软件 Proctorio。

在新冠肆虐的大背景下,「上网课」已经成为常态。那么考试的时候怎么办没有监考老师的情况下,学生会不会作弊/p>

越来越多高校选择使用远程监考软件 Proctorio 解决这一问题。该软件利用机器学习和先进的人脸检测技术,通过网络摄像头记录学生在考试期间的行为,监控学生的头部位置,以及标记「可疑行为」。

本周AI热点回顾:英伟达A100训练速度可达V100的3.5倍;飞桨框架支持ONNX协议?保存模型

UIUC 公告地址:

https://emails.illinois.edu/newsletter/1970177238.html

信息来源:机器之心

03

Paddle2ONNX重磅升级:飞桨框架支持ONNX协议保存模型啦!

飞桨框架2.0集成了最新版的Paddle2ONNX工具,进一步提升了框架的开放性。

近期,飞桨进入了2.0时代,不仅API体系得到了全面升级,动态图模式变得更加完备,为广大开发者带来“动静统一的开发体验”,还集成了最新版的Paddle2ONNX工具,进一步提升了框架的开放性。除了原先的Paddle Inference和Paddle Lite等高性能部署方案外,用户还可以通过使用paddle.onnx.export接口,将模型保存为ONNX协议格式后进行部署,极大丰富了飞桨的软硬件部署生态!

本周AI热点回顾:英伟达A100训练速度可达V100的3.5倍;飞桨框架支持ONNX协议?保存模型

相比V100,A100的单精度浮点计算能力,从15.7TFLOPS提升至19.5TFLOPS;而双精度浮点运算从7.8TFLOPS提升至9.7TFLOPS。

在英伟达的公开信息中,列出了A100与V100的参数对比:

本周AI热点回顾:英伟达A100训练速度可达V100的3.5倍;飞桨框架支持ONNX协议?保存模型

结论

  • 在卷积神经网络训练中:

1块A100的训练速度是1块V100的2.2倍;

使用混合精度时,前者则是后者的1.6倍。

  • 在语言模型训练中:

1块A100的训练速度是1一块V100的3.4倍;

使用混合精度时,前者则是后者的2.6倍。

其中,分别用8块A100与8块V100,进行32位训练:前者速度能够达到后者的3.5倍;看来,针对不同模式下的深度学习训练,英伟达A100都有着相当不错的效率。

“前所未有的规模”以及“惊人的性能”,所言不虚。

信息来源:量子位

05/p>

训练一个130亿参数的模型要用几个GPU软:一个就够

现在的模型动辄数百、数千亿参数,普通人训不动怎么办/p>

前不久,谷歌发布了参数量为 1.6 万亿的语言模型 Swith Transformer,将 GPT-3 创下的参数量记录(1750 亿)推至新高。这些大模型的出现让普通研究者越发绝望:没有「钞能力」、没有一大堆 GPU 就做不了 AI 研究了吗/p>

本周AI热点回顾:英伟达A100训练速度可达V100的3.5倍;飞桨框架支持ONNX协议?保存模型

论文链接:

https://arxiv.org/pdf/2101.06840.pdf

ZeRO-Offload 通过将数据和计算卸载(offload)至 CPU 来实现大规模模型训练。为了不降低计算效率,它被设计为最小化与 GPU 之间的数据往来,并在尽可能节省 GPU 内存的同时降低 CPU 的计算时间。因此,对于一个参数量为 100 亿的模型,ZeRO-Offload 可以在单个 NVIDIA V100 GPU 上实现 40 TFlops/GPU。相比之下,使用 PyTorch 训练一个参数量为 14 亿的模型仅能达到 30TFlops,这是在不耗尽内存的情况下所能训练的最大模型。ZeRO-Offload 还可以扩展至多 GPU 设置并实现线性加速,最多可在 128 个 GPU 上实现近似线性加速。

此外,ZeRO-Offload 还可以和模型并行一起使用,在一个 DGX-2 box AI 服务器上训练参数量超 700 亿的模型。与单独使用模型并行相比,这一参数量实现了 4.5 倍的规模提升。

信息来源:PaperWeekly

飞桨(PaddlePaddle)以百度多年的深度学习技术研究和业务应用为基础,是中国首个开源开放、技术领先、功能完备的产业级深度学习平台,包括飞桨开源平台和飞桨企业版。飞桨开源平台包含核心框架、基础模型库、端到端开发套件与工具组件,持续开源核心能力,为产业、学术、科研创新提供基础底座。飞桨企业版基于飞桨开源平台,针对企业级需求增强了相应特性,包含零门槛AI开发平台EasyDL和全功能AI开发平台BML。EasyDL主要面向中小企业,提供零门槛、预置丰富网络和模型、便捷高效的开发平台;BML是为大型企业提供的功能全面、可灵活定制和被深度集成的开发平台。

END

本周AI热点回顾:英伟达A100训练速度可达V100的3.5倍;飞桨框架支持ONNX协议?保存模型

来源:飞桨PaddlePaddle

声明:本站部分文章及图片转载于互联网,内容版权归原作者所有,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!

上一篇 2021年1月5日
下一篇 2021年1月5日

相关推荐