7月7日,Quantum TechScribe发表研究文章《量子计算未来-2025年后量子未来的6种可能观点》。基于当前技术进展与基础性挑战,作者对量子计算的五种潜在发展路径进行了系统性分析。研究整合了包括谷歌Willow处理器突破纠错阈值在内的重要实验成果,同时参考了IBM的量子技术路线图以及挑战“量子霸权”地位的经典算法新进展。此外,评估框架还涵盖了含噪中等规模量子(NISQ)与容错量子计算这两大技术路线的分叉演进。
研究构建的评估情景覆盖了从基础可扩展性失效到颠覆性突破的各种可能性。根据研究,2025年后,量子计算的6种可能图景及其实现的预估概率如下:
情景一:量子计算被证实无法扩展(概率:5%)
情景二:经典算法超越量子优势(概率:≥10%)
情景三:量子计算实现扩展但表现平庸(概率:1-10%)
情景四:容错量子计算的渐进式发展(预估概率:50%以上)
情景五:NISQ时代持续——容错量子计算未能实现(概率10-20%)
情景六:颠覆性突破——量子计算革命(概率30-40%)
情景一:量子计算被证实无法扩展(概率:5%)
(一)工程壁垒
尽管量子计算的数学基础依然成立,但工程技术挑战可能无法克服。谷歌Willow处理器展示的超导量子比特相干时间已接近100微秒,较前几代实现数量级提升。然而,扩展到实际应用所需的百万量子比特规模将面临指数级增长的难题。当量子比特数量突破数千后,工程复杂度将呈指数上升,仅百万量子比特系统的制冷需求就将消耗一座小型城市的电力输出。
经典-量子接口是另一项基础性瓶颈。n个量子比特的态制备需要O(2^n)次操作,使得大规模经典数据编码至量子态的过程面临指数级困难,这一数据加载问题至今还没有高效解决方案。更关键的是,量子态测量会破坏其叠加性,形成“读取困境”:每次量子计算仅能提取有限的经典信息。
(二)基础设施极限
现有量子处理器需依赖工作温度约15毫开尔文(接近绝对零度)的稀释制冷机,这是人类为计算设备创造的最极端工程环境之一。当前百量子比特级稀释制冷机造价数百万美元,而扩展到百万量子比特将需要超越现有所有量子实验室规模的工业级低温工厂。光子量子计算技术虽然可规避部分极低温难题,但无论采用何种量子比特技术,百万量子比特系统所需的热管理、控制电子学复杂度及纠错开销都可能突破工程实践上限。
图:稀释制冷机
由于串扰抑制、校准需求和纠错开销,控制系统的规模随量子比特数量呈超线性增长,这意味着控制系统复杂度的增长甚至快于量子比特数量的增长。百万量子比特系统要求控制体系在保持量子相干性的同时,以纳秒级精度协调巨量阵列。所需的经典计算资源可能超过量子系统本身的计算能力,形成“量子计算机所需的经典资源反而超过其量子优势”的悖论。
(三)跨领域佐证
后量子密码标准化的时间线与范围折射出制度性怀疑。2024年部分政府机构推出后量子密码学标准(包括完整的抗量子加密协议),暗示其对近期实现大规模量子计算机缺乏信心。若安全部门确信大规模量子计算机迫近,向抗量子加密的过渡理应采取更紧迫节奏。当前审慎的长期策略表明,官方预期现有加密体系在未来数十年仍将安全——这等同于承认密码相关量子计算机(CRQC)不会很快出现。
风险投资与企业投入模式的差异揭示出公众乐观与私有预期的割裂。量子初创企业虽持续融资,但其规模与频次仍远低于最终取得商业成功的其他新兴技术;大量企业合作聚焦于研究探索而不是实际部署,暗示业界将量子计算视为长期战略对冲而非近期机遇。
(四)历史参照与范式差异
扩展量子系统需要同步解决极低温工程、控制复杂度、量子存储、纠错及经济可行性等难题,这些问题之前的强关联性意味着单独突破任一环节可能无济于事。
历史先例对量子计算发展轨迹的参考有限:以往的计算革命依赖规模扩大后更简单廉价的技术路线,而量子计算却呈现相反规律:系统越大,复杂度与成本越会呈指数攀升。这种本质差异预示着量子计算可能会遵循与经典计算完全不同的发展范式。
若该情景成真,量子计算将退守细分领域:量子传感器或应用于医学成像;量子密钥分发服务于政府与金融机构的特殊安全通信;受限的量子模拟可能会辅助特定物理问题研究。科技巨头将缩减量子部门规模,如同1980年代的人工智能寒冬。通用量子计算机的梦想将与可控核聚变一样,沦为永远“还需20年”的技术传说。
情景二:经典算法超越量子优势(概率:≥10%)
(一)经典计算的逆袭
最新研究表明,经典计算可能通过算法革新追平量子优势。2024年,Flatiron研究所Tindall团队在《PRX Quantum》发表突破性成果:他们采用经典模拟复现了IBM 127量子比特Eagle处理器的实验数据,且精度超越量子设备本身。最关键的是,其张量网络算法仅需笔记本电脑即可运行,无需超级计算资源。
研究显示,这种经典模拟效率极高,Tindall指出“甚至可以在智能手机上完成”。他们并没有使用某种前沿技术,而是创新性地将现有张量网络方法适配于特定问题几何结构。这种数据阵列通过连接压缩海量量子信息的技术,被研究者形象地描述为“波函数的压缩文件”。后续研究显示,类似张量网络方法能高效模拟IBM最大规模处理器(包括433量子比特的Osprey与1121量子比特的Condor),以极低计算资源实现前所未有的精度。无独有偶,Oh团队在《Nature Physics》(2024)提出的经典算法,也对曾被视作量子优越性堡垒的高斯玻色取样(GBS)实验实现了高效模拟。
(二)AI驱动的算法革命
AI与算法开发的深度融合正在加速经典计算的“复兴”。机器学习系统现已能发现人类研究者可能遗漏的最优张量网络收缩路径,为曾被认为必须依赖量子方法的优化问题开发新启发式策略。神经网络对量子线路的高效近似表明,部分量子优越性也许只是尚未找到合适经典算法前的假象。正如Scott Aaronson在其博客中持续论证的那样,量子与经典计算优越性的边界始终处于动态迁移中。
此番情景存在历史先例。模拟计算机曾宣称能比数字系统更高效求解微分方程,但1970年代改进的数字算法与硬件使其优势荡然无存;1990年代并行计算也遭遇质疑,因精妙的串行算法常优于粗劣的并行化方案。当前局势与这些技术转型期高度相似——量子计算虽具理论优势,但经典计算在硬件演进与算法创新的驱动下仍将持续进步。
(三)算法胜利的终局
Scott Aaronson的学生Ewin Tang在探索量子加速时意外发现新经典算法的例子,也透露出量子与经典算法其实存在一种发展共生关系。NIST后量子密码标准已预设,经典算法的持续改进对现有加密体系的威胁将远早于量子计算机。在此情景下,经典算法可能将在除极端特例外的所有问题上达到或超越量子计算性能,彼时量子计算要实现实际价值就更加困难了。
情景三:量子计算实现扩展但表现平庸(概率:1-10%)
(一)边际效益
现有证据表明,即便成功,量子计算机可能也只能带来有限优势。某知名银行的量子计算实验在投资组合优化中仅取得15%的改进,虽具实用价值,但相较于数百万美元的投入难言革命性。谷歌随机线路采样实验宣称用200秒完成经典计算机需10^24年的任务,但该基准本身并无实际应用价值。
(二)经典计算持续加速
在量子计算缓慢扩展的同时,经典计算正持续突进。某GPU巨头仍保持每两年性能翻倍的节奏,其新一代架构专门针对量子计算可能竞争的并行计算领域进行优化。例如谷歌TPU通过专用架构已在特定AI任务实现百倍提升,而受脑科学启发的神经形态计算范式,正在以规避量子缺陷的方式实现部分预期中的量子优势。
IBM雄心勃勃的量子路线图也暴露了其局限性:IBM计划于2028年推出的Starling系统虽具备200个逻辑量子比特,但模拟咖啡因分子需160个逻辑量子比特,青霉素分子需450个,多数药物分子更需超1000个。考虑到当前纠错技术需要1000-10000个物理量子比特来编码1个逻辑量子比特,实现有意义的应用所需的硬件规模已是天文数字。
(三)平庸化的未来图景
麦肯锡2025《量子技术检测报告》指出,量子领域的市场增长主要依赖政府资金驱动而非商业需求,这个信号很重要。企业参与量子项目更多是出于竞争情报收集或政府关系维护需求,而非短期回报。如此,至2035年,量子计算机也许能实现小分子模拟、以微弱优势优化特定金融组合、求解量子特性展示问题——它们将成为类似GPU或FPGA的计算工具包成员,在特定领域有用但无法成为范式颠覆者。
情景四:容错量子计算的渐进式发展(概率:50%以上)
(一)稳步推进的技术
谷歌团队在《Nature》期刊展示突破阈值的纠错实验,标志着量子计算走向实用化的稳健开端。研究表明,通过将表面码距离从3增至5再到7,可实现错误率的指数级抑制——这验证了三十年前的理论预测。一旦突破阈值,物理量子比特质量的微小提升就能带来逻辑量子比特性能的显著飞跃。
图:IBM路线图
IBM的技术路线图提供了明确里程碑。2024年发布的133量子比特处理器具备实时经典通信能力;2026年的系统将首次实现逻辑量子比特与量子存储器的协同处理;至2028年,新系统将运行200个逻辑量子比特,仅需约10000个物理量子比特,采用效率比表面码高十倍的LDPC编码方案。
(二)技术演进路径
当前,量子硬件的性能正在沿着可预测轨迹发展。当前最优的超导量子比特相干时间为100微秒,预计2027年将达到500微秒,2030年有望接近1毫秒。双量子比特门保真度将从当前的99.5%逐步提升至99.9%乃至99.99%,伴随着纠错开销的大幅降低。系统规模遵循类似经典计算摩尔定律的扩展节奏,从数百量子比特逐步发展到数万量级。
软件生态与硬件进步保持协同。IBM的Qiskit Runtime已集成错误缓解技术,可使特定量子线路结果精度提升100-1000倍。针对近期硬件局限的优化的变分算法(如VQE量子本征求解器、QAOA量子近似优化算法)持续演进,专业编程语言、编译器及调试工具构成的生态系统会逐步完善。
(三)产业化应用时间表
如此,量子技术的商业化进程将遵循技术发展的历史规律。
2025-2027年,优化和小分子模拟领域先出现概念验证。已有一些药企实现了部分药物分子-蛋白相互作用的量子模拟,这些早期成果虽有限,但的确证实了量子计算的实用价值并吸引了大量投资。
2028-2030年,部分领域将实现首次量子优势。金融机构运用量子算法显著改进风险分析模型,化工企业加速工业催化剂研发。尽管优势幅度提升较小,但对于性能提升1%成本就能大幅降低的特定高价值问题来说,已具备足够的投资价值。
2031-2035年,量子优势会逐步扩展至5-10个主要应用领域,确立量子计算作为行业竞争必备工具的地位。
(四)市场发展实况
2025年行业分析显示量子计算营收突破10亿美元(2024年为6.5-7.5亿美元)。这种百分比增长虽亮眼,仍反映出技术处于市场培育期。咨询机构预测2030年量子计算的市场规模将达86亿美元,2035年增至450亿美元,这种稳步增长模式其实与经典计算机早期发展轨迹相似。
主要量子供应商会逐步将客户网络扩展至汽车制造、通信、金融等数十个行业的龙头企业;云服务商将量子计算与经典HPC资源作为增值服务捆绑提供。高校纷纷设立量子计算院系,培养未来产业化所需人才。
情景五:NISQ时代持续——容错量子计算未能实现(概率10-20%)
(一)分化
尽管理论前景广阔,容错量子计算可能始终难以实现。纠错所需的资源开销过于庞大,当前估算表明每个逻辑量子比特需要1000至10000个物理量子比特才能达到实用级错误率。谷歌团队对其纠错成果的分析还揭示了一个令人担忧的10^-10错误率下限问题,这源于宇宙射线爆发引发的关联误差。虽然此类事件发生概率极低,但单个宇宙射线可能同时破坏多个逻辑量子比特,使得大规模纠错变得徒劳无功。
面对这一现实,产业界转而拥抱含噪中等规模量子(NISQ)系统,通过先进的错误缓解技术来推进实用化。D-Wave的Advantage2系统采用5000多个量子比特进行量子退火,将噪声视为可通过算法设计管理的固有特性;Rigetti的Ankaa-3系统实现99.5%的双量子比特门保真度,在不追求完全纠错的前提下提升NISQ性能;IonQ的Tempo离子阱系统则凭借天然长相干时间,无需额外开销即可适配NISQ算法。
(二)错误缓解技术创新
领先的软件平台通过自动化错误抑制实现4倍性能提升,主流量子计算框架采用零噪声外推、概率错误率消除等技术,在不增加纠错开销的情况下显著改善结果质量。这些方法的核心在于通过不同噪声配置下的多次量子线路运行,外推至零噪声极限。这一发展路径的底层逻辑在于:量子优势的实现未必需要完美计算,同样可能通过精巧的算法设计和缓错来获得实用价值。
(三)NISQ应用蓬勃发展
NISQ应用生态呈现蓬勃发展趋势。在优化领域,量子退火器对金融机构投资组合优化等特定问题类型展现出稳定优势。量子机器学习成为最具前景的NISQ应用方向,量子硬件在特定核方法中实现指数级加速,高效处理经典计算难以完成的高维特征映射,混合经典-量子神经网络则通过协同计算展现独特优势。材料模拟能为催化剂设计和电池研发提供关键洞见,这种"“小尺度模拟大价值”的模式延续了经典计算中NP难问题近似算法的成功经验。
(四)行业结构演变
至2030年,量子计算产业呈现明显的二元分化格局。NISQ阵营包括量子退火公司、专业量子企业和初创公司,他们聚焦现有技术的近期应用,强调快速迭代、云服务接入和经典系统融合,通过解决实际问题实现盈利。而科技巨头、硬件龙头和学术机构仍持续攻关容错量子计算,虽取得渐进进展却始终未能突破大规模系统实用化的关键瓶颈。这种分化类似于经典计算中GPU/TPU/FPGA等专用处理器与通用CPU并存的产业形态。
(五)NISQ成功案例
到2035年,NISQ量子计算将快速成长,企业在优化、模拟和机器学习任务中稳定获得性能提升,量子计算将在特定领域持续释放变革性潜力。产业界会从逐步从追求完美量子计算的理想主义,转向拥抱实用量子近似的现实主义。
情景六:颠覆性突破——量子计算革命(概率30-40%)
(一)突破
技术突破的曙光可能来自多个方向。微软历经多年挫折的拓扑量子比特研究或将在2026年迎来转机,其提出的室温拓扑量子比特若能实现,将彻底摆脱低温环境的束缚,更能将相干时间提升至现有系统的万倍水平。这种基于非阿贝尔任意子的拓扑量子比特具有天然抗干扰特性,可能无需主动纠错即可构建百万量子比特系统,从根本上改变技术发展路径。与此同时,PsiQuantum采用标准硅光工艺制造的光量子处理器正朝着百万量子比特规模迈进,光子量子计算凭借室温运行、抗退相干等特性,结合现有光纤网络基础设施,有望实现量子计算的“云计算化”转型。
(二)算法革命
算法革命可能成为另一条突破路径。继Yamakawa和Zhandry在2023年证明量子计算对特定NP搜索问题的指数级加速后,研究者正将这一突破拓展至更广泛的优化、机器学习和模拟领域。量子计算与人工智能的协同效应值得关注:AI系统设计的反直觉量子线路可能突破人类认知局限,而量子处理器对特定AI训练任务的加速又将形成技术迭代的正反馈循环。谷歌量子AI团队已率先开展相关探索,通过机器学习优化量子线路设计,同时利用量子处理器加速机器学习过程。
(三)革命时间表
若突破如期而至,2026-2027年或将迎来拓扑处理器的发布;到2028-2030年,量子淘金热将席卷全球;2031-2035年间,量子计算将重塑产业格局:后量子密码成为通信标配,药物研发周期从年缩短至月,量子材料设计颠覆能源存储方式,金融交易必须依赖量子算法保持竞争力。
(四)突破的证据
当前发展态势为突破提供了现实基础。全球巨额的政府投入催生了从硅量子点到中性原子、离子阱、光量子系统等多条技术路线的并行探索,这种多样性大幅提高了突破概率。
企业行为也折射出行业内部的乐观预期。科技巨头推进量子准备计划,初创公司获得数十亿美元融资建设研究设施,风险资本持续加注的态势表明,精明的投资者们正押注这项技术的变革潜力。近年来量子优势演示和纠错里程碑的加速涌现,已多次超越专家预期,展现出颠覆性技术突破前典型的指数级进步特征。
激光是20世纪最具变革性的颠覆性技术之一,自1960年发明以来,从根本上改变了多个行业。
当多样化的技术路径、巨额资金投入与加速发展的技术进程形成合力,量子计算正站在类似激光技术当年引发产业革命的历史节点,唯一的不确定性仅在于哪条技术路线将率先突破以及优势积累的速度。
https://quantumzeitgeist.com/quantum-computing-future-2025-2035/
