bot.gif
close
正在加载
谷歌的人工智能突破使量子计算更接近现实世界的应用
Jose Antonio Lanz • 2小时前
摘要
研究人员开发了一种人工智能驱动的技术来稳定量子态,这一突破可能使量子计算变得实用。

谷歌研究人员发现了一种新技术,可以最终使量子计算在现实生活中变得实用,利用人工智能解决科学界最持久的挑战之一:更稳定的状态。

发表在《自然谷歌Deepmind科学家解释说,他们的新人工智能系统AlphaQubit已被证明在纠正长期困扰量子计算机的持续错误方面非常成功。

“量子计算机有可能彻底改变药物发现、材料设计和基础物理学——也就是说,如果我们能让它们可靠地工作,”谷歌的;公告阅读 ;但没有什么是完美的:量子系统非常脆弱。即使是最轻微的环境干扰——来自热量、振动、电磁场,甚至宇宙射线——也会破坏它们微妙的量子态,导致计算不可靠的错误。

三月研究论文强调了这一挑战:量子计算机在实际应用中只需要万亿分之一(10^-12)的错误率。然而,目前的硬件每次操作的错误率在10^-3到10^-2之间,因此纠错至关重要。

谷歌表示:“某些问题,传统计算机需要数十亿年才能解决,而量子计算机只需要几个小时。”。“然而,这些新处理器比传统处理器更容易产生噪音。”

“如果我们想让量子计算机更可靠,特别是在规模上,我们需要准确地识别和纠正这些错误。”

谷歌的新人工智能系统AlphaQubit希望解决这个问题。该人工智能系统采用了一种复杂的神经网络架构,在识别和纠正量子误差方面表现出了前所未有的准确性,在大规模实验中比以前的最佳方法减少了6%的误差,比传统技术减少了30%的误差。

它还保持了从17个量子比特到241个量子比特的量子系统的高精度,这表明该方法可以扩展到实际量子计算所需的更大系统。

引擎盖下

AlphaQubit采用两阶段方法来实现其高精度。

该系统首先在模拟的量子噪声数据上进行训练,学习量子误差的一般模式,然后使用有限的实验数据适应真实的量子硬件。

这种方法允许AlphaQubit处理复杂的现实世界量子噪声效应,包括量子比特之间的串扰、泄漏(当量子比特退出其计算状态时)以及不同类型错误之间的微妙相关性。

但不要太激动;你的车库里很快就不会有量子计算机了。

尽管AlphaQubit具有准确性,但在实际实施之前仍面临重大障碍。研究人员指出:“快速超导量子处理器中的每次一致性检查每秒都会被测量一百万次。”。“虽然AlphaQubit非常擅长准确识别错误,但它仍然太慢,无法实时纠正超导处理器中的错误。”

Deepmind的一位发言人告诉记者:“在较大的代码距离进行训练更具挑战性,因为示例更复杂,在较大的距离下样本效率似乎较低。”解密“这很重要,因为错误率随代码距离呈指数级增长,因此我们预计需要解决更大的距离,以获得大型深量子电路容错计算所需的超低错误率。

研究人员正将速度优化、可扩展性和集成作为未来发展的关键领域。

人工智能和量子计算形成了协同关系,增强了对方的潜力。发言人告诉记者:“我们预计人工智能/机器学习和量子计算将保持互补的计算方法。人工智能可以应用于其他领域,以支持容错量子计算机的发展,如校准和编译或算法设计。”解密“与此同时,人们正在研究量子ML在量子数据中的应用,更具推测性的是,在经典数据上的量子ML算法。

这种趋同可能代表了计算科学的一个关键转折点。随着量子计算机通过人工智能辅助纠错变得更加可靠,它们反过来可以帮助开发更复杂的人工智能系统,创造一个强大的技术进步反馈回路。

长期承诺但从未实现的实用量子计算时代可能终于更近了,尽管还不足以开始担心机器人的末日。

编辑人塞巴斯蒂安·辛克莱

发表评论
暂无评论
    查看更多评论

    免责申明:

    本网站所提供的所有信息仅供参考,不构成任何投资建议。用户在使用本网站的信息时应自行判断和承担风险。币界网不对用户因使用本网站信息而导致的任何损失负责。用户在进行任何投资活动前应自行进行调查和研究,并谨慎决策。币界网不对用户基于本网站信息做出的任何投资决策负责。用户在本网站发布的任何内容均由其个人负责,与币界网无关。