量子计算,它能给AI技术的发展带来什么帮助吗?
的确可以!
谷歌已经证明了量子计算也能解决传统机器学习中的图像分类问题,而且随着技术发展,量子计算机将在在学习能力上超越经典的神经网络。
另外量子计算还能解决经典网络中一些棘手问题,比如预防出现模型训练中的梯度消失问题。
量子神经网络
在第一篇论文中,谷歌构建一个神经网络的量子模型,研究如何在量子处理器上执行神经网络的分类任务。
谷歌把这个模型叫做量子神经网络(QNN),希望它能用在近期出现的量子处理器上。
虽然目前的工作主要是理论上的,但QNN的结构有助于在不久的将来对量子计算机进行实现和测试。
QNN可以通过标记数据的监督学习进行调整,谷歌已经在理论上证明了可以在MNIST数据集上训练它进行图像分类。
谷歌预计,随着量子计算机硬件规模的发展,未来QNN的能力将足够与经典神经网络匹敌,从而实现“量子霸权”。
在第二篇论文中,谷歌专注于量子神经网络和经典神经网络训练中的关键难题,即梯度消失或爆炸(vanishing or exploding gradients)的问题。
在传统的神经网络中,神经元权重良好的、无偏见的初始猜测通常与随机性无关,但是在某些情况下也存在一些困难。
量子计算恰恰能解决这方面的问题。
谷歌的论文表明,量子几何(quantum geometry)的独特特征能够阻止某些不良的初始化情况产生,帮助我们进入到到函数的稳定区,防止选取到那些会导致梯度消失的初始化策略。
这项工作对未来初始化和训练量子神经网络的策略具有指导意义。谷歌希望从这些量子几何状态中能获得启发,实现训练网络的新算法。
实现量子霸权
谷歌今年在量子计算领域动作频繁。
3月份,谷歌开发出了Bristlecone量子处理器,它拥有72个量子比特,是迄今为止最大的量子芯片。超过了IBM的50量子比特和英特尔的49量子比特。
谷歌希望用Bristlecone实现所谓量子霸权,即量子计算机在某些数学计算中的性能完全超过传统超级计算机。
NASA量子人工智能实验室(QuAIL)和谷歌一起,共同研究如何将“各种各样的优化和采样问题”映射到量子计算机上,希望在一年内实现该目标。
谷歌还计划在5年内实现量子计算技术的商业化。但这并不是说谷歌要推出面向市场的量子计算机。
由于超导量子计算机需要保持在接近绝对零度附近,因此不能把它从实验室里搬出来。预计谷歌届时会允许用户通过云API连接到量子计算机上。
-
谷歌
+关注
关注
27文章
6144浏览量
105183 -
神经网络
+关注
关注
42文章
4765浏览量
100608
原文标题:谷歌证明量子神经网络可训练图像分类
文章出处:【微信号:worldofai,微信公众号:worldofai】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论