聚焦快速机器学习训练算法,UC伯克利尤洋189页博士论文公布
机器之心报道
编辑:蛋酱、小舟
这份189页的博士学位论文 , 凝结了尤洋在快速机器学习训练算法领域的研究心血 。
过去十年 , 深度学习应用领域的数据量迅速增长 , 使得深度神经网络(DNN)的训练时间拉长 。 而这已经成为机器学习开发者和研究者面临的瓶颈问题 。 例如 , 在8个P100GPU上完成90个epoch的ImageNet/ResNet-50训练需要29个小时 , 在16个v3TPU芯片上完成BERT预训练需要81个小时 。
因此 , 如何有效缩短机器学习训练时间 , 同时完成高质量的训练 , 对于解决当前的瓶颈问题具有重大意义 。
本文将介绍一篇长达189页的博士学位论文 , 作者为加州大学伯克利分校计算机系的尤洋博士 。
今年7月 , 尤洋从加州大学伯克利分校毕业 , 获得计算机科学博士学位 。 目前已入职新加坡国立大学计算机系任助理教授(终身制) 。 近日 , 他在社交媒体上介绍了自己的博士论文 。
接下来 , 我们将简要介绍这篇博士论文的核心内容 , 感兴趣的读者可以阅读原论文 。
论文核心内容简介
这篇论文聚焦于快速且准确的机器学习训练 。 尽管生产团队希望能够充分利用超级计算机来加快训练过程 , 但传统的优化器无法扩展到数千个处理器 。 该研究设计了一系列基础优化算法 , 来为深度学习系统实现更强的并行度 。 这些算法为谷歌、英特尔、腾讯、英伟达等公司的SOTA分布式系统提供了支持 。
这篇论文的重点是缩小高性能计算(HPC)和机器学习(ML)之间的差距 。
2017年 , HPC和ML之间存在着巨大的差距 。 一方面 , 功能强大的超级计算机已经出现 , 每秒可执行2×1017次浮点运算 。 但另一方面 , 我们却无法充分运用此算力的1%来训练SOTA机器学习模型 。 原因是超级计算机需要极高的并行度才能达到峰值性能 。 但是 , 高度的并行会导致ML优化器的收敛性很差 。
为了解决这个问题 , 尤洋及合作者提出了LARS优化器、LAMB优化器以及CA-SVM框架 , 缩小了机器学习与分布式系统之间的差距 。
该论文包括以下三个主要部分:
第二章详细讲解了通信避免的SVM(communication-avoidingSVM) , 第三章详细介绍了通信高效的KRR(communication-efficientKRR) , 第四章详细介绍了异步贪心坐标下降(Asy-GCD) 。
第五章介绍了在超级计算机上加速ImageNet训练的细节 , 包括算法设计和通信/计算权衡 。
第六章介绍了将BERT训练时间从3天降低到76分钟的技术细节 , 这是建立在大批量优化和超参数自动调整等技术之上的 。
这三个部分紧密相关 。 研究者在第一部分中以凸优化开始 , 在第二部分中深入探讨非凸优化 。 由于非凸优化比凸优化要难得多 , 因此作者在第三部分中又进行了详细介绍 。 第七章则进行了总结 。
以下是这篇博士论文的目录:
在致谢的最后 , 尤洋表达了对家人的感谢:
最后 , 我想感谢我的母亲YanleiHuang , 父亲ZhiqiangYou , 兄长PengYou , 以及我的妻子ShiyueLiang 。 我将向家人们表达最深的感谢 , 没有他们无条件的支持我不可能获得今天的成就 。 我会一直在你们身边 。
推荐阅读
- 酿酒|用真全粮酿酒机器做酒,为什么发酵时间越长口感越好?
- 高血脂|聚焦2021CROI大会,发布多项关于日常服药引发血脂问题的研究
- covid-19|无创皮肤拭子样本足以快速检测出COVID-19
- fda|FDA警告!罗氏诊断快速冠状病毒、流感检测可能会导致假阳性结果!
- 泡发粉条时,只需多做这一步,快速泡发,粉条软滑有嚼劲
- 海沟|海洋新霸主诞生?软体机器鱼游入世界最深海沟
- 牛肉不要只会加水炖,多放3种调味料,不用高压锅也能快速软烂
- 早餐别出去买了,2个鸡蛋一块豆腐,快速又营养,全家都喜欢!
- 快速上桌的几道家常菜,简单易做好吃又开胃,特别有食欲
- 绿豆汤快速煮开花有技巧,不用浸泡,只需多加一步,10分钟就开花
