人工智能技术正以前所未有的速度渗透到各个行业领域,智能计算已从辅助工具转变为核心生产力。根据复旦大学联合清华大学、北京大学等顶尖机构发布的《人工智能与先进计算融合发展路径研究蓝皮书》,传统计算架构在面对EB级数据规模、万亿参数模型训练等极端场景时,暴露出算力供给不足、能耗过高、灵活性差等固有缺陷。为应对这些挑战,全球先进计算领域正在探索量超智融合、光计算、图计算、存算一体、类脑与神经元计算以及生成式变结构计算等六大技术路径。这些技术不仅代表着计算范式的根本变革,更为构建下一代高性能、低功耗、高可靠的智能计算体系提供了全新可能。本文将深入分析这六大技术方向的发展现状、技术原理、优势瓶颈及融合潜力,为行业提供全面的发展趋势洞察。
一、量超智融合:量子计算与经典计算的协同突破
量超智融合(Quantum-supercomputing-intelligence fusion, QSIF)计算将量子计算机与传统超算、智算架构协同,利用量子加速模块处理特定任务,兼顾量子计算与经典计算的特点,为解决药物分子模拟、交通调度等复杂问题提供新思路。量子计算通过量子比特叠加与纠缠特性,实现指数级算力提升,突破经典计算在组合优化、密码破解等领域的性能极限。
近年来,IBM、Google、本源量子等公司在含噪声中等规模量子(NISQ)硬件的研发上取得了显著进展。大语言模型和生成式AI也展现出强大的应用潜力,二者交叉融合的领域变得日益活跃。然而在量超智融合的系统架构设计与优化、量子计算与AI双向赋能的有效路径等方面仍面临诸多挑战。量子计算优势的应用边界尚缺乏系统性界定方法论,导致混合架构中量子-经典算力分配策略缺乏理论支撑。量子计算所处理的数据以叠加态和纠缠态为特征,与经典计算中基于二进制比特的数据在表示方式和信息结构上存在本质差异,导致在量子-经典融合计算过程中,数据的编码、传输与解码面临显著的效率瓶颈。
针对这些挑战,系统架构设计需要着重推进量子-经典混合算法中量子优势领域的探索方法论,以及量超融合系统数据互通难题的解决方案。在NISQ时代,量子计算的实际应用主要依赖于量子-经典混合算法,这类算法相对于经典算法的优势领域仍不清晰,严重制约了融合框架中量子与经典算力的有效分配。研究人员通过多种方式探索量子优势边界,包括理论指导启发量子优势、经验性基准测试、资源理论等。量子启发算法(如张量网络)的出现模糊了部分量子专属领域,但也反向揭示了量子计算难以被经典替代的核心特征。
量超融合系统的数据互通瓶颈(物理瓶颈、数据量与格式、同步开销)已成为制约其实际效能的核心挑战。针对这些问题,量超融合系统的数据互通优化需从硬件架构革新、算法协同设计及系统级资源调度三个维度展开多层次攻关。在硬件层面,可通过低温经典计算将部分控制与预处理逻辑集成至量子芯片附近,降低传输延迟;引入高速光互连替代传统电缆,提升带宽并降低能耗;同时结合3D集成与异构封装技术,实现量子芯片与经典ASIC的片上或近片互联。
量子计算与人工智能的双向赋能是量超智融合最具潜力的发展方向之一。这种结合并非单向赋能,而是量子计算与AI之间深刻的“双向赋能”:量子计算有望为AI突破算力瓶颈、解决特定难题提供新工具;反过来,AI的强大分析与优化能力也能加速量子计算机的研发与应用。尽管由于量子噪声影响、有限的问题规模和线路深度、贫瘠高原等问题,使得量子+AI的工作尚未展现出明确、普适的优势,但随着软硬件的发展,这些问题正逐步被克服。
量超智融合的发展将经历三个阶段:NISQ阶段(0~5年)、早期容错阶段(5~15年)和完全容错阶段(15年后)。每个阶段的突破都将依赖于软硬件技术的协同进步和理论算法的持续创新,最终实现量子计算、超算与智算三大前沿计算技术的深度整合,攻克当前单一计算体系难以逾越的瓶颈。
二、光计算与存算一体:突破能效瓶颈的创新路径
光计算以光为信息载体,以光学或电学高维调控结构为基本单元,通过光的受控传播实现计算,能够突破电计算芯片的算力和功耗桎梏,有望支撑新一代人工智能计算的高算力需求。相比电计算,光计算具有高速、大带宽、低能耗和低损耗等优势,存在三方面颠覆性技术潜质:低能耗、高维度和高并行性。光子计算芯片在进行线性矩阵运算方面,相比于传统的电子芯片具有更快的运算速度,区别于电学布尔运算按照时序多次在存储器与处理器之间搬运数据的计算方法,光子芯片采用光波的高维数据加载,一次通过光子芯片即可完成矩阵运算,具有“结构即功能,传输即计算”的特点。
光子计算根据物理实现原理可分为干涉型与衍射型两大技术路线。光学干涉神经网络利用光的波动性,通过波导、分束器、相位调制器等元件实现光的叠加与干涉,完成线性运算,具有动态可重构特性,适用于需要高精度线性计算的场景。光学衍射神经网络基于光波的菲涅尔衍射或者夫琅禾费衍射传播原理,通过多层衍射光学元件,采用微结构调制光场相位/振幅,实现线性变换,以被动方式固化神经网络权重,实现零功耗的超高速推理,特别适合静态模式识别任务。
光计算的超高速、高并行性与低能耗等优势明显,为智能计算开辟了全新的硬件范式。其核心价值在于借助光速传输的天然特性与内在并行性加速矩阵运算,光学神经网络(ONN)与光子集成技术的结合可高效处理卷积、傅里叶变换等关键矩阵运算操作。在光电混合计算架构中,电子计算承担逻辑控制功能,光计算则专注于大规模线性运算,二者协同实现能效比的跨越式提升。
存算一体技术通过将存储单元与计算单元深度融合,有效消除了传统冯·诺依曼架构中“存储-计算”分离导致的“内存墙”问题,实现了低延迟、高能效的数据处理。存算一体可以划分为两条技术路线:将计算单元靠近存储单元的近存计算架构,以及存储阵列能够原位执行计算的存内计算架构。近存计算通过先进的封装方式及合理的硬件布局,在不改变存储单元与计算单元功能的前提下,缩短二者之间的物理距离,从而提升通信带宽、降低传输开销。

存内计算架构彻底打破了存储与计算之间的界限,将存储单元与计算单元深度融合在一起,使得计算操作能够直接在存储阵列上完成,极大地减少了数据搬运需求,从而显著提升计算性能与能效。然而这种原位计算的模式引入了诸多新的技术挑战,对存储器件的特性提出了更高要求,如线性能力、多值能力、器件波动性等,这些特性直接影响计算效率、精度与可靠性。由器件组成的阵列是存算一体的核心部件,阵列的大小、结构等直接影响了计算并行粒度,而阵列的寄生特性影响了计算的可靠性。
存算一体架构需要将多阵列组织成为更大规模的存储器,通过大规模阵列协同工作来满足复杂应用算法对存储和计算资源的需求。存算一体阵列的组织方法直接影响了系统整体性能,阵列的数量越多,其互连复杂度、延迟和面积开销等问题也越发凸显。需要研究层次化阵列组织结构,探索片上网络互连方式,在保障高效计算的同时,减少互连延迟和面积开销。
存算一体软件支撑工具链需要聚焦两个方向:支持高效架构设计空间探索,以加速存算一体架构及芯片设计;充分释放存算一体硬件潜力并提升存算一体易用性的编译部署技术。需要建立计算精度、能耗、延迟等多维度的仿真评估框架及其仿真平台,将宏观性能参数与底层硬件参数关联,形成可量化的评估体系。针对编译部署技术,需要接入主流人工智能框架如Pytorch,建立人工智能算子到存算一体指令集的自动映射机制,实现人工智能应用无感调用存算一体功能。
三、类脑与神经元计算:仿生智能的能效突破
类脑与神经元计算借鉴生物神经系统机理,构建高效、低功耗的智能计算架构,具有实时学习、自适应性和超低能耗等优势。其核心在于构建具有生物可解释性的神经元模型与动态可塑的复杂性神经网络,以事件驱动方式实现智能涌现,是突破传统AI能效瓶颈,实现通用人工智能的重要技术路径。
自2012年起算力需求由缓慢增长变为每24个月翻一番,最近这个周期更是缩短到了两个月,增长速度已经远远超过了摩尔定律缩放实现的改进。虽然在过去的几年中,通过架构改进和软硬件协同设计等方式,传统计算已经取得了显著的改进,英伟达的GPU通过优化架构使计算效率提高了300倍以上,但仅靠传统计算的改进无法满足长期的需求。数据密集的人工智能应用加剧对能源的需求和环境的影响,现代计算系统消耗大量的能量,而这一点很容易被用户忽略。2021年数据中心每年使用200TWh的能量,预计到今年年底还会增长一个数量级。
类脑计算与冯诺依曼架构相比,在组织结构、功耗要求和处理能力方面有着显著差异。类脑计算的特点集成许多简单的处理单元(神经元),它们之间具有密集的互连(突触),具有高容错性、极低功耗、存算一体和在线学习等优势。大脑的运行功耗约20瓦,基于冯诺依曼体系结构建造一个与人脑复杂程度相等的计算机,需要将近100兆瓦的功耗。
类脑与神经元计算技术路线包括模型层、算法层、器件层、软件层和应用层五个层次。模型层研究借鉴大脑结构与原理,构建高效低耗、存算一体、具适应性的新型计算范式;算法层研究适合类脑计算的训练、学习算法;器件层开发新颖的器件,具有极小、超快的神经拟态计算能力;软件层开发类脑计算机未来可供普通用户使用的软件系统;应用层研究类脑计算的特色化应用。
类脑计算芯片按照其电路实现方式的不同可以分为三大类:CMOS数字电路、CMOS数模混合电路和基于新器件的CMOS混合电路。CMOS数字电路优势在于工艺成熟、精度可控和灵活性高;CMOS数模混合电路优势在于能够精确模拟神经元的动态特性、能效水平高;基于新器件的CMOS混合电路核心特点在于存算一体化。类脑计算芯片按照其计算架构的不同可以分为异构融合和神经拟态两大类。
当前国际国内主要的类脑计算硬件系统包括IBM Blue Raven系统、Intel Hala Point系统、欧盟脑计划的SpiNNaker系统和浙江大学的达尔文系统。Hala Point是当前全球最大的神经形态系统,搭载1152颗Loihi2芯片,包含11.5亿神经元和1,280亿突触,总功耗为2,600瓦。浙江大学的达尔文系统集成了792颗Darwin2芯片,达到1.2亿神经元和720亿神经突触,已具备小型哺乳动物大脑的规模。
类脑计算芯片与系统具有大规模、高并行、低功耗等特点,适合非常规计算任务、边缘计算、神经科学等应用场景。在低功耗边缘计算方面,类脑计算凭借事件驱动、存算一体的特性,在极低功耗边缘场景可展现出革命性潜力。在实现类脑大模型推理方面,基于类脑科学思想和技术的人工智能模型,借鉴了人脑神经元的结构和功能,通过模拟人脑的工作方式,实现更加高效和智能的类脑大模型。在脑科学研究方面,类脑计算能够作为神经科学家研究脑的仿真工具,提供新的实验手段探索大脑工作机理。在类脑机器人方面,可以提高机器人的认知、学习和控制能力,以类脑的方式实现对外界的感知及自身控制一体化。
四、生成式变结构计算:软件定义的计算范式革新
生成式变结构计算是一种结合生成式人工智能与变结构系统理论的新型计算范式,其核心在于通过动态调整系统结构或参数,结合生成式模型的创造性能力,实现复杂系统的自适应优化与高效决策。生成式变结构计算的核心在于按算法需求动态重构计算架构,推动计算架构从“刚性流水线”向“软件可塑形”跃迁,满足智算应用领域多样性、基础软硬件异构性、同构计算器件规模化冗余性的人工智能时代计算发展趋势。
拟态计算以“应用决定结构、结构决定效能”为基本理念,实现计算系统的多维重构函数化结构和动态多边体运行机制,建立多目标优化的动态可重构计算体系结构。拟态计算核心原理借鉴生物拟态现象,旨在设计具有多种功能等价、效能不同的执行变体或计算环境方案,使得系统运行时能够根据应用需要,在合适的场合、合适的时机,选择或生存合适的方案,实现在多约束的条件下逼近系统计算效能最优值。
拟态计算构建可动态重构的硬件资源池与软件定义互连网络,其动态可重构体系结构让计算架构可以主动根据应用需求动态改变,一个计算任务在不同阶段、不同时段、不同资源条件、不同服务质量、不同经济要求等因素影响下,可动态生成或选择合适的计算结构与环境为之服务,从而突破传统刚性架构的效能瓶颈。拟态计算机通过基于认知的元结构的拟态变换生成应用目标所需的物理解算结构集合,依靠动态变结构、软硬件结合实现高性能、高效能的计算。
生成式变结构计算以自然界的统一性和多样性为启示,针对不同的应用需求和算法特征,生成相适配的多样化计算结构,并通过统一的计算模型、算法框架等基本计算元素,确保多样化任务平台的兼容与协同。生成式变结构计算基于任何计算结构都无法全流程适配应用任务需求、有限时间段内存在最优适配结构可能性的事实,根据不同应用任务在不同阶段、不同时段、不同资源条件等上下文下的计算需求和参数变化,基于基本计算元素及其之间的互连结构生成,动态地构成与之相适应的解算环境。
生成式变结构计算能够实现“结构、功能、效能”协同进化。生成式变结构计算架构中多样化基本构则为复杂性计算系统的核心,从最早的总线逐步演缩性与灵活性的同时,为计算结构的协同进化提供了物质基础。面对系统计算结构适配应用任务特性的变结构过程的复杂性、不确定性与非线性,人工智能的辅助规划、优化决策、自动调参等能够有效缩短相关设计空间探索时间,提高决策效率。
生成式变结构计算的发展经历了基于FPGA等可编程重构的芯片级变结构计算,到基于主动认知的多维动态重构函数化体系架构(即:拟态计算)概念的提出,并通过拟态计算机的研制在多个领域应用证明软硬件变结构计算所带来的计算效率和计算效能提升。生成式变结构计算思想已在拟态计算机和拟态计算系统上进行了初步验证,并在信号处理、密码算法等多个领域进行应用示范。
生成式变结构计算为多领域应用智能计算发展提供了支撑。特别是规模和复杂度不断增加AI大模型研究应用方面,其指数级增长的计算量,以及矩阵计算/向量计算/标量计算等异构大规模可并行计算等特征,可以使得生成式变结构计算的优势得以充分发挥。生成式变结构计算通过对大规模异构计算单元的统一抽象和管理,实现了计算资源随AI计算任务的弹性伸缩和适配。
生成式变结构计算的赋能机理基于威廉姆·罗斯·艾什比定律(又称:必要多样性定律),“只有多样性才能摧毁多样性”。生成式变结构计算使用软件定义技术,构建“生成式互连网络”将基本计算元素连接起来并生成适配的计算结构,实现计算多样性与统一性的融合,从而动态适配满足日益复杂和多样化的算力需求。生成式互连结构以软件定义互连为基础,构建包含多种通信模式、安全策略、编制方式、互连拓扑、互联控制等互连元素的异质异构互连资源池,结合计算/存储与传送资源的一体化表征,生成与计算节点适配的互连拓扑。
生成式变结构计算的实践规范是“超限创新”工程,通过系统性思维与非对称路径,来克服高端芯片和先进制造领域的技术瓶颈。超限创新的首要特征是系统长板与单点短板的结合,通过整体性和协同性来推动跨越式发展。生成式变结构计算在超限创新实践中首先应拒绝路径依赖的创新法则,关注非共识性创新,通过抢占生成式变结构计算标准和基础理论技术高地,独立自主研发造就差异化竞争优势。
以上就是关于2025年人工智能与先进计算融合发展的全面分析。量超智融合、光计算、图计算、存算一体、类脑与神经元计算以及生成式变结构计算等六大技术路径,共同构成了突破传统计算架构瓶颈的创新方案。这些技术不仅代表着计算范式的根本变革,更为构建下一代高性能、低功耗、高可靠的智能计算体系提供了全新可能。
从量子计算与经典计算的协同突破,到光计算与存算一体的能效创新,从类脑计算的仿生智能突破,到生成式变结构计算的软件定义革新,每一项技术都在为解决人工智能时代的算力需求提供独特价值。这些技术的融合发展将重塑计算架构、支撑大模型时代高能效智能推理,为前沿科技探索与产业升级提供全新可能。
随着这些技术的不断成熟和深度融合,人工智能与先进计算的融合发展将迎来新的突破,为数字经济时代提供强大算力支撑,推动各行各业智能化转型,最终实现计算技术的普惠化发展和可持续发展目标。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)