新智元|神经网络+量子计算机?华人学者开源首个量子计算协同设计框架


新智元|神经网络+量子计算机?华人学者开源首个量子计算协同设计框架
文章图片
新智元报道
编辑:白峰
【新智元导读】近日 , 由圣母大学姜炜文博士后 , 史弋宇教授和IBM研究院JinjunXiong博士开展的研究 , 实现了首个机器学习和量子计算协同设计框架 , QuantumFlow , 为神经网络在量子计算机上的实现铺平了道路 。
QuantumFlow框架能够自动地完成神经网络到IBM量子计算机的部署 。
新智元|神经网络+量子计算机?华人学者开源首个量子计算协同设计框架
文章图片
神经网络加速迎来新玩家
量子计算机是一种使用量子逻辑进行通用计算的设备 , 使用量子比特进行数据存储 , 使用量子算法来进行数据操作 。
量子计算研究可以追溯到19世纪60年代 , 在2016诞生了首台可编程量子计算机 。 IBM于2019年1月展示了商业化量子计算机IBMQ , 并预测将于20世纪20年代获得量子优势:针对真实的应用场景 , 展现出量子计算超越经典计算的能力 。
新智元|神经网络+量子计算机?华人学者开源首个量子计算协同设计框架
文章图片
图1:量子优势之路:从19世纪60年代的量子科学 , 2016年进入量子准备阶段 , 20世纪20年代将进入量子优势阶段以利用量子计算机解决实际问题(Source:IBM)
新智元|神经网络+量子计算机?华人学者开源首个量子计算协同设计框架
文章图片
图2:神经网络硬件加速器迎来新成员:量子计算机
深度神经网络是当下计算应用中发展最快 , 使用最广的机器学习算法 。 如图2所示 , 深度神经网络加速器 , 已经在通用处理器(CPU,GPU)以及专用加速器(FPGA , ASIC)上得到广泛研究 。
然而 , 随着应用不断复杂化导致网络结构不断扩大 , 存储性能瓶颈已逐渐凸显 。 在传统计算平台上 , N个数字比特只能表示1个N位数据 , 然而在量子计算中 , M个量子比特却同时能表示2^M个数据 , 并能同时操作这些数据 。
量子计算机如此强大的存储与计算能力 , 使其拥有巨大潜能打破神经网络在传统计算平台上的性能瓶颈 , 获取量子优势 。
首个量子计算协同设计框架 , 让你的神经网络飞起来
如何在深度学习领域获取量子优势还面临诸多挑战 , 其中第一个障碍便是缺少一个协同设计神经网络与量子线路的自动化工具 。
现有工作或是尝试直接将针对传统计算系统设计的神经网络映射到量子计算机 , 或是直接设计量子神经网络 。
然而这样的独立设计很难发挥量子计算机的优势(例如实数乘法会引入过多量子比特 , 带来巨大开销) 。 根本原因是缺乏一个协同设计的工具 , 该工作填补了这一空白 , 提出了第一个神经网络/量子计算协同设计框架 , QuantumFlow 。
新智元|神经网络+量子计算机?华人学者开源首个量子计算协同设计框架
文章图片
图3QuantumFlow协同设计框架
如图3所示 , QuantumFlow框架包括四个组件:
网络模型设计器QF-Net:其利用随机变量对输入实数数据进行表示 , 能够自然地利用量子状态进行表示 , 并实现随机变量的运算 。 该设计器提出了便于量子线路实现的基本运算操作 , 包括向量的线性、非线性运算与批标准化操作 。
量子线路设计器QF-Circ:针对QF-Net中每一个运算操作 , 设计了对应的量子线路实现 。
前向反向传播器QF-FB:提供在传统计算平台高效的前向后向传播实现 , 以为支持高效地QF-Net模型训练 。
网络映射QF-Map:根据依靠QF-FB训练得到的QF-Net模型 , 将首先进行网络-线路映射 , 建立QF-Net对应的量子线路QF-Circ;进而进行虚拟-物理量子比特映射 , 部署QF-Net到量子计算机 。 在进行虚拟-物理量子比特映射时 , 将考虑量子计算机的错误率 , 以提高模型精度 。