谷歌证明量子神经网络可训练图像分类

摘要:谷歌人工智能量子(Google AI Quantum)团队最近发表了两篇论文,介绍了他们在理解量子计算机学习任务方面取得的新进展。

谷歌证明量子神经网络可训练图像分类

文/晓查

谷歌人工智能量子(Google AI Quantum)团队最近发表了两篇论文,介绍了他们在理解量子计算机学习任务方面取得的新进展。

量子计算,它能给 AI 技术的发展带来什么帮助吗?

的确可以!

谷歌已经证明了量子计算也能解决传统机器学习中的图像分类问题,而且随着技术发展,量子计算机将在在学习能力上超越经典的神经网络。

另外量子计算还能解决经典网络中一些棘手问题,比如预防出现模型训练中的梯度消失问题。

谷歌证明量子神经网络可训练图像分类

量子神经网络

在第一篇论文中,谷歌构建一个神经网络的量子模型,研究如何在量子处理器上执行神经网络的分类任务。

谷歌把这个模型叫做量子神经网络(QNN),希望它能用在近期出现的量子处理器上。

虽然目前的工作主要是理论上的,但 QNN 的结构有助于在不久的将来对量子计算机进行实现和测试。

QNN 可以通过标记数据的监督学习进行调整,谷歌已经在理论上证明了可以在 MNIST 数据集上训练它进行图像分类。

谷歌预计,随着量子计算机硬件规模的发展,未来 QNN 的能力将足够与经典神经网络匹敌,从而实现“量子霸权”。

谷歌证明量子神经网络可训练图像分类

在第二篇论文中,谷歌专注于量子神经网络和经典神经网络训练中的关键难题,即梯度消失或爆炸(vanishing or exploding gradients)的问题。

在传统的神经网络中,神经元权重良好的、无偏见的初始猜测通常与随机性无关,但是在某些情况下也存在一些困难。

量子计算恰恰能解决这方面的问题。

谷歌的论文表明,量子几何(quantum geometry)的独特特征能够阻止某些不良的初始化情况产生,帮助我们进入到到函数的稳定区,防止选取到那些会导致梯度消失的初始化策略。

这项工作对未来初始化和训练量子神经网络的策略具有指导意义。谷歌希望从这些量子几何状态中能获得启发,实现训练网络的新算法。

谷歌证明量子神经网络可训练图像分类

实现量子霸权

谷歌今年在量子计算领域动作频繁。

3 月份,谷歌开发出了 Bristlecone 量子处理器,它拥有 72 个量子比特,是迄今为止最大的量子芯片。超过了 IBM 的 50 量子比特和英特尔的 49 量子比特。

谷歌证明量子神经网络可训练图像分类

谷歌希望用 Bristlecone 实现所谓量子霸权,即量子计算机在某些数学计算中的性能完全超过传统超级计算机。

NASA 量子人工智能实验室(QuAIL)和谷歌一起,共同研究如何将“各种各样的优化和采样问题”映射到量子计算机上,希望在一年内实现该目标。

谷歌还计划在 5 年内实现量子计算技术的商业化。但这并不是说谷歌要推出面向市场的量子计算机。

由于超导量子计算机需要保持在接近绝对零度附近,因此不能把它从实验室里搬出来。预计谷歌届时会允许用户通过云 API 连接到量子计算机上。

论文地址

Classification with Quantum Neural Networks on Near Term Processors:

https://arxiv.org/abs/1802.06002

Barren Plateaus in Quantum Neural Network Training Landscapes:

来自: 新浪科技

扩展阅读

近200篇机器学习&深度学习资料分享(含各种文档,视频,源码等)
谷歌证明量子神经网络可训练图像分类
谷歌开源了TensorFlow,世界就要马上被改变了吗?
揭秘TensorFlow:Google开源到底开的是什么?
Google I/O完整盘点,这才是地球上最「性感」的发布会

为您推荐

基于大数据与深度学习的自然语言对话
近200篇机器学习&深度学习资料分享(含各种文档,视频,源码等)
从新一代TPU到Google.ai,详解谷歌I/O首日人工智能五大亮点
腾讯AI Lab获计算机视觉权威赛事冠军 超微软、谷歌
谷歌公布了TPU细节,AI业界怎么看?

更多

google
IT业界