从2^N到N^2:量子计算开始助推神经网络!华人学者首次展示量子优势

从2^N到N^2:量子计算开始助推神经网络!华人学者首次展示量子优势
文章图片

新智元报道
【新智元导读】日前 , 由圣母大学姜炜文博士后 , 史弋宇教授和IBM研究院JinjunXiong博士 , 在其实现的首个机器学习和量子计算协同设计框架QuantumFlow上 , 首次展示了量子优势 , 即在传统计算机上需要指数时间完成的神经网络计算任务 , 可以在量子计算机上以多项式时间完成 。去年 , 谷歌声称实现了量子霸权 , 但有评论认为 , 这项研究只是一个实验室实验 , 它完全是为了实现一个非常具体的量子采样程序 , 没有实际应用价值 。
量子计算首次在神经网络应用展示量子优势
近日 , 圣母大学联合IBM研究院 , 在自研的机器学习和量子计算协同设计框架QuantumFlow上 , 展示了量子计算的实际应用 , 将指数时间的神经网络计算任务用多项式时间完成了 。
研究团队在MNIST数据集上进行了验证 。 对比同量级小型网络结构 , 在获得23.9%的精度提升基础上 , 降低了10.5倍基本计算单元开销(等效于提速10.5X) 。
当网络大小进一步扩大 , 团队所提出的方法可以获得更高提速 。 该结果首次展示了神经网络在量子计算机上上的可行性 。
从2^N到N^2:量子计算开始助推神经网络!华人学者首次展示量子优势
文章图片

图1QuantumFlow在2020年IBM量子峰会报告目前 , 量子计算机的发展主要受规模小(即量子比特数量)的约束 , 在2020年9月1日 , IBM发布了包含65个量子比特的量子计算机 , 并计划与2023年实现多达1121个量子比特的计算机 , 这将极大地释放量子计算资源限制瓶颈 。
从2^N到N^2:量子计算开始助推神经网络!华人学者首次展示量子优势
文章图片

IBM量子计算机发展规划相较于量子计算机硬件的迅猛发展 , 量子计算软件的发展明显滞后 。 目前为止 , 仅有少数的应用展示了量子优势 , 例如质数分解 , 随机数生成等 。
在这样的背景下 , 研究如何使用量子计算机对广泛使用的应用进行提速变得极为重要 。
神经网络 , 作为日前应用发展最为迅猛的人工智能领域的基础 , 己经广泛应用于各个领域 。 在这些领域中 , 存在大量的应用具有超大规模的数据计算量的需求 。
例如3D-核磁共振医疗影像具有10^6规模的输入数据 , 而用于天文研究的平方千米阵的数据规模高达10^9 。 面对如此巨大的数据量 , 传统计算机已经遇到了计算瓶颈 。
量子计算具有独天得厚的优势 , 其可以使用K个量子比特表示2^K个数据并进行并行计算 。 但是 , 如何利用量子计算的特性来实现神经网络 , 并获得量子优势仍然是一个未知课题 。
基于神经网络和量子线路协同设计框架 , MNIST上性能提升超10倍
研究团队使用了神经网络和量子线路协同设计框架QuantumFlow 。 该框架之前所使用的神经网络计算层P-LYR , 以及基于该计算层与标准化层(N-LYR)实现的神经网络QF-pNet已经展示了量子计算机可以实现神经网络 , 并获得较高精度 。 然而 , 该神经网络并没有展示出量子优势 。
在新的QuantumFlow中 , 该团队设计了新的神经网络计算层U-LYR , 以及基于U-LYR,P-LYR,N-LYR三种不同计算层的混合神经网络QF-hNet , 扩展了QF-Map映射器 , 以支持新计算层的量子实现 , 充分利用了软件特性 。
从2^N到N^2:量子计算开始助推神经网络!华人学者首次展示量子优势
文章图片

图3QuantumFlow协同设计框架加入新成员:U-LYR与QF-hNet
针对U-LYR的量子设计获得了量子优势 , 对于输入为2^N的数据 , 相较于传统计算机上需要使用O(2^N)计算时间复杂度 , 在量子计算机上仅仅需要使用O(N^2)的计算时间复杂度 。
例如 , 假设单位时间为秒 , 当N=30时 , 传统计算机需要使用2^30秒≈34年的时间进行计算 , 在量子计算机上 , 仅需要使用30^2=900秒就可以完成 。
从2^N到N^2:量子计算开始助推神经网络!华人学者首次展示量子优势
文章图片

图4U-LYR相较于传统计算机FC(C)与目前最新的神经网络在量子计算机实现FC(Q)的开销对比图4展示了U-LYR与其他对照方法的实验结果 。 其中 , 红色的点是U-LYR在不同输入大小 , 使用50次蒙特卡洛实验所获得的开销 , 因为量子计算线路实现与权重有关 , 实验生成50个权重 , 并根据这些权重构造的量子计算线路 。 红色线条展示了平均开销 。 黑色线表示了传统计算机的实现开销 。
从该实验结果可以清楚地看到 , 随着输入大小的增大 , 传统计算机的开销成指数上升 , 而U-LYR的开销上升缓慢 。 当输入大小为16时 , 量子计算机只能获取2.4倍性能提升 , 而当输入规模达到2048时 , 性能提升扩大到了64倍 。
图中蓝色的点与线是目前最新的使用超图状态构造的神经网络量子计算线路 , 可以看到 , 它与传统计算机一样 , 随输入大小增大而指数增大 。 这组实验首次展示了神经网络计算可以在量子计算机上获取量子优势 。
从2^N到N^2:量子计算开始助推神经网络!华人学者首次展示量子优势
文章图片

图5:利用U-LYR构造的QF-hNet在MNSIT上对比同等量级的神经网络获取了最高的精度
从2^N到N^2:量子计算开始助推神经网络!华人学者首次展示量子优势
文章图片

图5与表1分别展示了使用U-LYR所构造的QF-hNet在MNIST数据集上所获取的网络模型精度与开销比较 。
其中MLP是与QF-hNet具有相同数量参数的多层感知器在传统计算机上的实现 , FFNN是最新的神经网络在量子计算机上的实现 。
从结果中 , 我们可以看到 , QF-hNet在不同大小的数据集上均能取得最高精度 。 并且 , 对比传统计算机 , 使用不同大小输入数据均能获得性能提升 。 特别地 , 当输入大小为256时 , QF-hNet可以获得10.85倍的性能提升 , 这与图4所展示的结果一致 。
这是第一次展示神经网络计算在量子计算机上可以获得量子优势 , 研究团队也获邀在今年IBM量子峰会进行报告 。
QuantumFlow针对MNIST的demo , IBM量子峰会报告等资料已经在项目网站给出 。 详细信息请关注:https://wjiang.nd.edu/categories/qf/ 。
作者简介姜炜文目前是圣母大学的博士后研究助理 。 2019年获重庆大学博士学位 。 2017年到2019年 , 曾在匹兹堡大学电子和计算机工程系参与研究工作 。从2^N到N^2:量子计算开始助推神经网络!华人学者首次展示量子优势
文章图片

博士期间 , 姜炜文在国际会议和主要期刊上发表了50多篇研究论文 , 其中包括10多篇IEEE/ACM会刊论文 , 他在硬件加速和神经网络结构方面的合作研究获得了DAC’19 , CODES+ISSS’19和ASP-DAC’20最佳论文提名 。 他在神经网络和并行系统等方面的研究工作引起了业界的广泛关注 。推荐阅读:
【从2^N到N^2:量子计算开始助推神经网络!华人学者首次展示量子优势】马斯克发布特斯拉无极耳电池!改写电动车历史 , 超长续航暴击传统燃油车


    推荐阅读