投递人 techseek 发布于 2025-11-18 22:22 原文链接 [收藏] « »

图片来源: Pixabay/CC0 Public Domain

  科技日报北京 11 月 17 日电 (记者张佳欣)美国哈佛大学研究团队首次在一套集成量子系统中实现量子纠错所需的全部关键要素,向构建实用的大规模量子计算机迈出了决定性一步。最新成果发表于新一期《自然》杂志。

  量子计算机可在单原子层面编码信息,但长期受到量子纠错这一核心瓶颈问题限制。哈佛团队此次构建的新型量子系统,能够在关键性能阈值以下检测并清除错误。从多项性能指标来看,这些实验达到迄今任何量子平台的最高水平,为突破量子纠错瓶颈提供了全新路径。

  量子纠错被视为量子计算研制的关键门槛。与传统计算机利用 0 和 1 编码信息不同,量子计算机依托量子叠加与纠缠等特性,理论上能在数量极少的量子比特中存储指数级的信息。一个由约 300 个量子比特组成的系统,其信息容量超过已知宇宙中的粒子总数。但量子比特极易发生退相干并丢失信息,因此降低错误率成为发展大型量子系统的前提。

  研究团队此次展示了一个由 448 个中性原子量子比特组成的“容错”系统,能够通过物理纠缠、逻辑纠缠、熵移除等机制实时监测并修正错误,并利用“量子隐形传态”等技术实现量子态的无接触传输。

  为验证该系统的可扩展性,团队设计了包含数十层纠错步骤的深度量子电路,将错误率压低至关键阈值以下。在这一阈值范围内,继续增加量子比特不仅不会引入额外误差,反而能进一步抑制错误。这一结果被视为量子纠错领域 30 年来的重要进展。

  谷歌量子 AI 团队工程副总裁哈特穆特·内文评价称,该成果出现在全球量子比特平台竞争“极为激动人心”的阶段,“向构建大规模、实用的量子计算机迈出了重要一步”。

  链接:A potential quantum leap

24小时阅读排行

    最新新闻

      编辑推荐

        相关新闻