IBM研究员手持该公司Loon实验量子处理器的晶圆
当地时间11月12日,在人工智能持续主导科技叙事的当下,另一场更深层的计算革命正在逼近。它试图破解一个人类追寻已久的“千年难题”:让计算机像自然界一样并行思考。
这一“千年难题”的哲学根源可以追溯到古代——当人类首次思考“理性能否模拟自然”时,计算的概念便悄然萌芽。它在近代转化为科学命题:如何让机器在有限时间与能量内,重现复杂世界的无限变化?传统计算机的逻辑体系基于确定性与二进制,而现实世界却遵循量子叠加与概率的不确定规律。两者之间的鸿沟,正是计算科学几百年来始终未能跨越的界限。
IBM今日在纽约奥尔巴尼发布两款实验性量子芯片——Loon处理器与Nighthawk芯片。研究人员称,这一突破或将首次让机器以量子物理规律进行计算,触及传统计算无法解开的复杂问题。这不仅是一次技术革新,更可能标志着人类与“千年计算难题”的距离,缩短到了可见的尺度。
IBM研究总监杰伊·甘贝塔(Jay Gambetta)在发布会上表示:“我们正在尝试做一件从未有人做到的事,也就是让量子系统在不完美中持续运作。”这一宣言,不仅是技术层面的突破,更像是人类与千年计算难题之间的正式对话:让机器以自然的方式计算自然。
位于纽约州奥尔巴尼的IBM纳米科技实验室
量子计算的历史几乎与现代物理学并行。从薛定谔方程到图灵机模型,科学家们一直在寻找一种能将自然复杂性转化为可计算逻辑的方式。然而,直到21世纪,随着量子信息科学的快速崛起,这一理想才有了现实路径。
IBM此次推出的Loon与Nighthawk芯片,核心目标是为实现“容错量子计算机”铺路。所谓“容错”,指的是系统即便存在计算误差,也能通过自我纠正保持结果的准确性。这一直是量子计算能否走出实验室、进入现实世界的最大障碍。
Loon处理器是IBM在该方向的实验验证平台。它展示了实现大规模量子计算所需的核心组件,并在硬件层面实现对误差的控制与隔离。Nighthawk芯片则进一步优化了量子门(quantum gates)结构,使系统能执行更复杂的运算任务,被认为是IBM实现“通用量子计算机”路线图上的关键节点。
“以往的量子芯片往往在极低温环境中只能短暂运行,”甘贝塔解释说,“但Loon与Nighthawk证明,我们已经可以让系统在错误和噪声中持续计算——这意味着容错架构不再只是理论。”
IBM表示,这一成果表明量子计算正从“物理可行性”迈向“工程可靠性”的新阶段。公司首席执行官阿尔温德·克里希纳(Arvind Krishna)在声明中指出:“如果说人工智能让计算学会了思考,那么量子计算将让计算学会推演未来。”
“千年难题”并非时间意义上的千年,而是象征人类自古以来对计算本质的探索。从古巴比伦的天文算法到莱布尼茨的二进制体系,从图灵机到超级计算,人类一直依赖确定性逻辑来描述世界。然而,量子世界的运作规律并非如此:粒子可以同时存在于多个状态,可以“纠缠”成整体,也可以在观察中坍缩。
量子计算正试图回答的,就是那个困扰科学家数百年的问题:如何让机器在不确定性中计算确定性?
与传统计算机依赖二进制比特(0与1)的逻辑不同,量子计算机的核心单元是量子比特(Qubit)。量子比特可以处于“0”和“1”的叠加状态,也就是说,它能同时代表多个可能性。这种性质赋予量子计算机指数级并行处理能力。
麻省理工学院教授阿南德·纳塔拉詹(Anand Natarajan)形象地解释说:“想象一枚旋转中的硬币。经典比特是硬币落地的正反面,而量子比特是在旋转中——它既是正面,也是反面。”
这一特性使量子计算能在极短时间内完成传统计算机需要数千年才能完成的任务。例如:制药行业可以利用量子计算在分子层面模拟药物反应,大幅缩短新药研发周期;材料科学可在原子尺度上设计轻量合金或高温超导材料;金融机构能以量子算法即时计算复杂衍生品定价或风险模型;气候研究可模拟地球系统变化,预测极端天气模式。
麦肯锡的报告显示,到2035年,72%的科技高管和投资人认为容错量子计算将实现商业落地。一旦成功,它将成为人类继AI之后最具颠覆性的科技突破。
然而,量子计算的潜能与挑战并存。量子比特的“叠加态”极其脆弱,温度变化、磁场波动甚至一束微弱光线都可能导致其“坍缩”,令计算失败。正如IBM科学家所言:“震动一张桌子,足以让整台量子计算机报废。”
这正是Loon处理器诞生的背景。它并不追求绝对完美,而是通过数学与工程手段,使系统能够在“错误中生存”。这种从“追求完美”到“容忍不完美”的转变,正是量子工程的本质飞跃。
研究人员在谷歌量子人工智能实验室检查用于冷却量子计算芯片的低温恒温器
IBM的突破无疑让这场全球性的“量子军备竞赛”再度升温。近两年,谷歌、微软、英特尔以及欧洲与中国的研究机构纷纷发布量子项目新进展,力图在下一个计算时代占据主导权。
·谷歌(Google Quantum AI)
2024年底,谷歌推出名为Willow的量子芯片,声称在5分钟内完成的运算任务,相当于传统超级计算机需要10的24次方年。该芯片的设计核心在于降低“扩展误差”,即当量子比特数量增加时,误差仍保持线性增长,而非指数恶化。
·微软(Microsoft Quantum)
2025年初,微软宣布研制出Majorana 1芯片,采用拓扑量子材料,理论上能产生更稳定的量子比特。微软称这是“创造新物质形态”的成果,可显著延长量子信息的寿命。
·新兴力量
初创公司Quantinuum正在与宝马集团和空中客车合作,利用量子算法改进燃料电池效率;1QBit与埃森哲实验室、Biogen合作,探索量子模拟在药物设计中的应用。
这些项目的共同目标是让量子计算从实验室走向现实工业。正如麻省理工学院教授纳塔拉詹所言:“未来的实验室可能不再需要试管和显微镜,而是运行在量子平台上的模拟环境。”
与此同时,各国政府也在积极介入。有报道称,部分量子企业正与美国商务部商讨以政府资金换取股权的合作模式。尽管官方未予确认,但这显示出——量子技术已被提升为国家战略资产。
尽管IBM的Loon与Nighthawk代表了量子计算的重要进展,但距离真正的“量子时代”,仍需克服技术、经济与伦理三重门槛。
一是技术门槛。量子计算机的运行需维持在接近绝对零度(-273°C)的环境中,这使得其大规模部署极为昂贵。此外,系统的稳定性、量子门深度、量子连通性等指标仍受限。IBM计划在2030年前推出具备上千量子比特的商用级系统,并构建开放云平台,允许科研机构和企业远程调用量子算力。
二是经济门槛。麦肯锡估算,全球量子计算领域的年投资额已突破70亿美元。但短期内尚未形成稳定盈利模式。IBM、谷歌等公司正采用“量子即服务”(Quantum-as-a-Service)商业模式,先行开放算法平台,为制药、金融和材料企业提供实验性算力。
三是安全与伦理门槛。一旦量子计算达到临界能力,现有的RSA、椭圆曲线等加密算法可能在数分钟内被破解。美国国家标准与技术研究院(NIST)已启动“后量子加密标准”制定计划,以防范未来风险。“谁率先拥有量子计算能力,谁就拥有重新定义网络安全的权力。”纳塔拉詹警告。
IBM的研究人员或许意识到,Loon和Nighthawk并非单一科技产品的诞生,而是一场人类计算文明的重启。从算盘到晶体管,从AI到量子比特,人类一次次打破计算极限的边界。而如今,量子计算让我们第一次触碰到“时间与复杂性不再是障碍”的未来。
卡内基梅隆大学教授斯里达尔·塔尤尔(Sridhar Tayur)说:“今天我们仍在用勺子和叉子做脑外科手术,但量子计算机,将是那把真正的手术刀。”或许,真正改变世界的,不是让机器更像人类的AI,而是让机器跳出人类思维束缚的量子智能。
本文来自“腾讯科技”,作者:无忌,36氪经授权发布。
发布时间:2025-11-13 15:20