人走茶凉|UC伯克利尤洋189页博士论文公布,聚焦快速机器学习训练算法
机器之心报道
编辑:蛋酱、小舟
这份189页的博士学位论文 , 凝结了尤洋在快速机器学习训练算法领域的研究心血 。
过去十年 , 深度学习应用领域的数据量迅速增长 , 使得深度神经网络(DNN)的训练时间拉长 。 而这已经成为机器学习开发者和研究者面临的瓶颈问题 。 例如 , 在8个P100GPU上完成90个epoch的ImageNet/ResNet-50训练需要29个小时 , 在16个v3TPU芯片上完成BERT预训练需要81个小时 。
因此 , 如何有效缩短机器学习训练时间 , 同时完成高质量的训练 , 对于解决当前的瓶颈问题具有重大意义 。
本文将介绍一篇长达189页的博士学位论文 , 作者为加州大学伯克利分校计算机系的尤洋博士 。
今年7月 , 尤洋从加州大学伯克利分校毕业 , 获得计算机科学博士学位 。 目前已入职新加坡国立大学计算机系任助理教授(终身制) 。 近日 , 他在社交媒体上介绍了自己的博士论文 。
接下来 , 我们将简要介绍这篇博士论文的核心内容 , 感兴趣的读者可以阅读原论文 。
论文核心内容简介
这篇论文聚焦于快速且准确的机器学习训练 。 尽管生产团队希望能够充分利用超级计算机来加快训练过程 , 但传统的优化器无法扩展到数千个处理器 。 该研究设计了一系列基础优化算法 , 来为深度学习系统实现更强的并行度 。 这些算法为谷歌、英特尔、腾讯、英伟达等公司的SOTA分布式系统提供了支持 。
这篇论文的重点是缩小高性能计算(HPC)和机器学习(ML)之间的差距 。
2017年 , HPC和ML之间存在着巨大的差距 。 一方面 , 功能强大的超级计算机已经出现 , 每秒可执行2×1017次浮点运算 。 但另一方面 , 我们却无法充分运用此算力的1%来训练SOTA机器学习模型 。 原因是超级计算机需要极高的并行度才能达到峰值性能 。 但是 , 高度的并行会导致ML优化器的收敛性很差 。
为了解决这个问题 , 尤洋及合作者提出了LARS优化器、LAMB优化器以及CA-SVM框架 , 缩小了机器学习与分布式系统之间的差距 。
- 人走茶凉|释放出了什么信号?,英特尔恢复对华为的供货
- 短视频|周某人走红狂吸粉300万,直言418万直播,背后有团队撑腰?
- 快科技|这样不好,百度CEO李彦宏:现在的算法容易让人走极端
- 人走茶凉|消失多年的“公共天线”
- cell|小聪明式的科研人走不远,一篇顶刊论文《CELL》背后的纠纷!
- 人走茶凉|Power-Z KT002专用电子负载,ChargeLAB
- 人走茶凉|多媒体信息发布系统源码
- 人走茶凉|这下轮到库克着急了,突然反转!苹果市值单日蒸发10000亿
- 人走茶凉|| 电脑时钟时间正确,任务栏时间显示不正确,经验