发布日期:2024-12-12 20:44:46 浏览次数:
近日,谷歌量子AI团队宣布了一项重大突破,他们在新研发的量子芯片上实现了“低于表面码阈值的量子纠错”(Quantum Error Correction Below the Surface Code Threshold)。这一里程碑式的成就不仅大幅降低了量子计算的错误率,还显著延长了量子信息的存储寿命,为未来实现具备实用价值的量子计算机奠定了坚实基础。
量子计算的核心挑战之一在于量子信息的脆弱性。由于量子态的敏感性,任何微小的扰动都可能导致信息的丢失或错误。为了应对这一挑战,量子纠错理论应运而生。该理论通过将量子信息分散到多个物理量子比特上,形成一种称为“逻辑量子比特”的纠错编码,从而在理论上提高了信息的抗噪能力。
然而,要使这种技术在实践中发挥作用,就必须证明这种将信息分散到多个量子比特上的方法可以有效降低错误率。谷歌团队在最新的研究中,通过表面码纠错技术,成功实现了这一目标。
表面码是一种拓扑码,具有良好的可扩展性和工程实现价值,特别适合于超导量子芯片。谷歌团队在一片包含105个量子比特的芯片中实现了码距为7(d=7)的表面码纠错,同时在一片72量子比特芯片中实现了码距为5(d=5)的表面码纠错及其实时解码。
在两种情况下,编码后的逻辑量子比特中的信息存储寿命均高于所有参与编码的物理量子比特的寿命,即超过了纠错的“盈亏平衡点”。具体来说,码距为7的逻辑量子比特寿命达到了291微秒,而所有参与编码的量子比特平均寿命为85微秒,最高119微秒。这意味着量子纠错让量子信息的存储寿命延长了2.4倍。
除了表面码纠错技术的成功应用,谷歌团队还首次在d=5的纠错流程中实现了长时间的连续实时解码。实时解码对于实用的容错量子计算是必要的,因为它允许系统在需要时立即纠正错误。然而,由于超导量子体系中门执行的速度非常快,解码器必须在同样短的时间内完成解码,这对解码器的性能提出了极高的要求。
谷歌团队开发的解码器在一百万个周期下,平均延时为63微秒,没有表现出延时随周期数逐渐增长的情况。这一成就表明解码器能够跟上纠错码的执行节奏,为实现实用的容错量子计算提供了重要支持。
为了探索系统的错误率背景极限,谷歌团队还测试了码距为29的“重复码”。测试结果表明,在码距达到大约25之后,逻辑错误率就饱和了,约为百亿分之一(10^-10)的水平。团队发现这一背景错误率来源于大约每小时发生一次的不明来源的关联错误。这一发现为未来量子纠错技术的研究提供了新的方向。
谷歌的这项突破不仅展示了量子纠错技术的巨大潜力,还为未来量子计算机的发展奠定了坚实基础。通过不断改进纠错技术和提高量子芯片的性能,谷歌团队有望在未来实现更低的错误率和更高的计算精度。这将使得量子计算机能够解决目前无法解决的复杂问题,并在科学发现、药物研发、材料科学等领域发挥重要作用。
本文由晶间腐蚀试验机厂家ac milan 收集整理自网络,仅供学习和参考!