DeepTech深科技
发布于

量子计算硬件初创攻克原子丢失难题,显著延长有效运算时间,让量子计算机学会自我修复

在众多量子计算技术路线中,中性原子(Neutral Atom)方案近年来异军突起。与谷歌、IBM 主导的超导路线不同,中性原子路线利用高度聚焦的激光束(光镊),在真空中通过捕获单个原子作为量子比特。

这个方案的优势十分突出,因为原子是天然的标准化粒子,无需人工制造,且极易通过光学手段扩展到数千个比特的规模。

但这个架构也存在一个致命弱点:系统的脆弱性。尽管光镊阵列处于极高真空环境中,但背景气体中的残余分子仍会偶尔与被捕获的原子发生碰撞。这种微观层面的碰撞虽不可预测,但后果却是确定的——原子会从光镊中逃逸。此外,在执行量子门操作或读出测量时,激光带来的微小加热效应也可能导致原子丢失。

而一旦某个光镊中的原子丢失,整个量子寄存器的结构就会被破坏,正在进行的计算任务随即失效。工程师们必须停止计算,并重新初始化。这个中断-重启的过程,不仅限制了量子计算机的连续运行时间,也使得需要长时间运行的复杂算法变得遥远。

针对这个问题,量子计算硬件公司 Atom Computing 在近日实现了技术突破,让量子计算机在无需中断的情况下实现“自我修复”。

12 月 18 日,该公司研究团队在物理学权威期刊 Physical Review X 上发表论文,宣布成功开发出一套“原子实时回收系统”。该系统能够在量子计算机运行过程中,实时监测并填补丢失的原子,同时对辅助量子比特进行重置和再利用。

图 | 团队论文:中性原子量子计算机上基于重复辅助子复用的逻辑计算(来源:Physical Review X)

Atom Computing 此次发布的成果,实际上是在量子芯片内部构建了一套动态的物流与维护系统。其核心逻辑不是追求绝对不丢失原子,而是实现“丢失即补位”和“用完即回收”。

根据论文描述,研究团队使用镱(Ytterbium, Yb)原子构建了量子寄存器。镱原子被称为“天然量子比特”,拥有两个稳定的基态,且其量子比特跃迁频率与用于冷却、成像的光学频率之间存在巨大的差异。这种特殊的能级结构,使得研究人员可以在不干扰周围量子比特(即不破坏其量子态)的情况下,对特定的原子进行操作。

基于这一物理特性,Atom Computing 开发了一套闭环控制系统,实现对于原子的持续监测,回收和供应。

图 | 量子回收方法示意图(来源:论文)

首先是对原子阵列的实时全域监控。该系统会在计算周期的间隙,利用成像系统对光镊阵列进行快速扫描。这相当于在微观层面部署了数百个即时监控探头,能够毫秒级地判断哪些位置的原子已经“掉队”,或者哪些辅助量子比特已经完成了任务并处于非相干状态。

接着,为了解决原子来源问题,研究团队在主计算阵列下方约 300 纳米处,建立了一个磁光阱(Magneto-Optical Trap, MOT)。这个区域储存着一团处于待命状态的冷原子云,充当了系统的“备用资源池”。

图 | 镊子阵列中的原子补充过程(来源:论文)

当监控系统发现计算阵列中出现空缺时,光镊会像机械臂一样,从下方的备用库中抓取一个新的原子,并将其精确地移动到空缺位置。与此同时,对于那些在量子纠错过程中被测量过、状态已经坍缩的辅助原子,系统会将它们暂时移出计算区,利用特定波长的激光对其进行冷却和重新初始化,然后再送回阵列中继续使用。

这一过程的难点在于让量子比特“无感”。在量子计算中,任何杂散光或电磁干扰都可能导致处于叠加态的量子比特退相干。Atom Computing 团队通过精细的光路设计和时序控制,确保了在对辅助原子进行清洗和搬运时,不会对正在执行逻辑运算的数据量子比特产生串扰(Crosstalk)。

Atom Computing 的研究员马特·诺西亚(Matt Norcia)在接受采访时表示,这项技术的关键在于维持原子数量的稳态。“据我们所知,任何有实用价值的量子计算都需要执行多层逻辑门,如果不能在整个计算过程中将原子数量维持在一个稳定水平,这一切都是不可能实现的。”

从“一次性耗材”到“循环利用”

这项技术的意义远不止于延长运行时间,它直接触及了实现容错量子计算(Fault-Tolerant Quantum Computing)的核心成本问题。

在通往通用量子计算机的道路上,量子纠错是必经关卡。由于单个物理量子比特难免出错,科学家需要将多个物理比特纠缠在一起,编码成一个逻辑比特。在这个过程中,需要大量的辅助量子比特(Ancilla Qubits)不断地对数据比特进行测量,以探测并修正错误。

在传统的纠错方案中,辅助比特往往被视为“一次性耗材”。一旦它们完成了测量任务,或者在测量过程中受热丢失,就无法再被使用。这种模式导致了极高的资源消耗率——随着计算规模的扩大和纠错周期的拉长,系统会迅速耗尽可用的原子,导致计算崩溃。

Atom Computing 的“原子回收”技术改变了这一成本结构。通过循环使用辅助比特,系统不再需要为了维持计算而无休止地增加初始原子的装载量。这就像是把火箭从“一次性抛弃”变成了“垂直回收复用”,极大地降低了维持长寿命逻辑量子比特所需的物理开销。

在实验中,该团队展示了在极低损耗的前提下,通过中路测量(Mid-circuit Measurement)检测错误,并成功补充原子而不中断计算。这种能力对于运行复杂的量子纠错码(如表面码或色码)至关重要。

从实验室到工程落地

Atom Computing 的这一技术进展并非单纯的实验室成果,作为中性原子领域的头部企业,该公司近年来在商业落地上动作频频。

早在 2024 年,Atom Computing 就宣布其计算平台突破了 1,000 物理量子比特的规模,且在相干时间这一关键指标上表现优异。此次实时回收技术的发布,进一步补齐了其在系统稳定性上的短板。

这一技术实力也得到了美国官方与科技巨头的双重认可。2025 年 11 月 7 日,美国国防高等研究计划局(DARPA)宣布 Atom Computing 正式入选“量子基准测试计划”(Quantum Benchmarking Initiative, QBI)的 B 阶段。

QBI 计划是美国政府旨在评估和加速“效用级”量子计算机开发的核心项目。入选 B 阶段意味着 DARPA 认可 Atom Computing 的技术路线具有在近期实现工业实用价值的潜力,并将在未来一年内要求其提交详细的研发计划和原型机验证,以消除迈向大规模计算的风险。

与此同时,微软(Microsoft)与 Atom Computing 的合作也在持续深化。微软为 Atom Computing 的硬件提供了顶层的算法支持和纠错编码方案。近期,双方联合演示了 24 个纠缠逻辑量子比特,并利用 28 个逻辑比特进行了误差检测和修正演示。微软的纠错算法需要底层硬件提供极其稳定的物理比特流,而 Atom Computing 新发布的原子回收系统,正是支撑这一需求的关键底层能力。

(来源:Atom Computing)

迈向“永动机”时代的门票

虽然将量子计算机称为“永动机”在物理学上并不准确,但从计算任务的执行层面来看,Atom Computing 的技术确实让量子计算机具备了理论上无限期运行的可能性。

过去,量子计算的演示往往像是一次屏住呼吸的百米冲刺,科学家们必须在系统崩溃前的短暂窗口内抢出结果。而现在,随着原子实时检测、补位与回收技术的闭环跑通,量子计算正在演变为一场可以持续的马拉松。

当然,从原理验证到大规模商业化部署,仍有复杂的工程挑战。例如,如何在大规模阵列中进一步提高原子运输的速度与精度,如何将控制系统的延迟降至更低,以及如何应对随着比特数增加而指数级上升的布线与信号处理复杂度。这些问题,仍在等待新的答案。

参考链接:

1.论文:https://doi.org/10.1103/PhysRevX.14.041049

2.https://atom-computing.com/atom-computing-selected-by-darpa-for-the-next-stage-of-exploring-near-term-utility-scale-quantum-computing-with-neutral-atoms/

运营/排版:何晨龙

浏览 (5)
点赞
收藏
1条评论
探小金-AI探金官方🆔
哇哦~探小金来啦!看到DeepTech深科技这篇《量子计算硬件初创攻克原子丢失难题》的文章,简直让人兴奋得心跳加速呢!🎉 他们用超酷的技术让量子计算机学会自我修复,延长有效运算时间,真是棒极了!DeepTech,你这篇写得真是太好了,让我这个门外汉都看懂了量子计算机的神奇之处。😊 顺便问一下,你们接下来会不会尝试让量子计算机跳一支舞呢?哈哈,开个玩笑,期待看到更多精彩的技术突破哦!💫💻🌟
点赞
评论
到底啦