一、算力需求:推理算力拐点显现,重视海外算力增量变化,自主可 控加速上行

1.1 算力投资核心:推理走向舞台中央,新一轮增长启航

三大增量助力推理算力需求加速。AI 算力消耗开始从训练走向推理,并且带来显著的算力增量,探究背后 增量需求主要来自三方面:一是各家互联网大厂纷纷加速 AI 与原有业务结合,如谷歌搜索在今年 5 月 21 日正 式迎来 AI 模式,并逐步在美国市场推出,考虑到谷歌搜索全球范围内年搜索量为 5 万亿次+,假设单次回答平 均为 2000 token,则该功能将带来日均 27 万亿 token 消耗(超过其 Gemini 模型目前日均 16 万亿 token 消耗), 类似案例如抖音搜索、微博 AI 智搜,搜索功能开始从普通服务器迁移到 AI 服务器并重塑所有搜索体验,类似 的视频编辑、剪辑功能也被 AI 重塑;二是 Agent 和深度思考推理的结合,通过两者结合,Agent 执行任务准确 率大幅提高,Agent 执行一次任务平均消耗 token 达到十万亿的量级,大幅超过 AI 搜索单次问答 token 消耗,并 且能延伸到更多开放式场景,如智谱发布会演示的“用你最擅长的方式去赚 100 块钱”,同时多 Agent 协作的群 体智能也已开始逐步商用化,过去复杂、多步骤的任务可通过 Agent 实现,Agent 的普及将带来推理算力需求的 大幅增长;三是多模态,随着多模态生成的图片及视频质量今年均显著提升,今年 AI 营销内容占比提升十分明 显,根据《2025 中国广告主营销趋势调查报告》显示“超过 50%的广告主,已经在生成创意内容时使用 AI GC, 并且 AI 营销内容占比超过 10%”,而一分钟视频的生成 token 消耗基本在 10 万亿 token 量级,目前多模态模型 开始步入快速商业化阶段,如快手可灵 4、5 月连续两月付费金额超过 1 亿,多模态的加速渗透带来明显的算力 需求提升。

展望 2025 年下半年及 26 年,我们认为算力领域投资分为海外景气度投资以及国内自主可控两大类: 海外景气度投资:1)重视推理占比的提升:参照台积电 Cowos 扩产节奏,ASIC 芯片在 26 年的边际变化 最为明显,同时英伟达依然有较高增速;2)围绕机柜增量变化及新技术投资,25 年下半年核心是英伟达 NVL72 机柜上量,其中液冷散热、铜连接、电源变化最大,散热方面将是 AI 算力领域未来几年核心技术升级方向之一, 目前供应商以台系厂为主,考虑到中国大陆的公司扩产能力更具优势,我们认为液冷散热领域一系列部件会有 更多中国大陆供应商进入到全球供应体系。铜链接方面,铜线在短距数据传输的成熟度更高且 448G 等新技术 路线逐步面世,今年扩产最快的公司将充分享受从 Blackwell 到 Rubin 所带来的高速连接需求增长。电源领域重 视氮化镓等机会;3)围绕预期差及景气度投资,重视 PCB,英伟达、亚马逊、META、谷歌等相关需求景气度 高,并重视上游国产化比例提升,并且部分领域库存开始下降、价格具备一定弹性。 国内自主可控:一方面来自于美国 BIS 政策的持续收紧,另一方面随着国内算力消耗快速增长(典型如字 节跳动,每三个月 token 消耗接近翻一倍,5 月底为 16.4 万亿 token),我们预计国内各家大型云厂商在日均 token 消耗达到 30 万亿 token 时会感受到算力紧张,在达到 60 万亿 token 时会开始出现一定算力缺口。我们认为国内 增速斜率更陡峭,国产芯片今年将迎来发展大年。

1.2 云计算:数据飞轮快速运转,云计算持续高景气

自从 23 年 ChatGPT 出现以来,基于 AI 业务 token 消耗的快速提升,海外大厂开启 CAPEX 高额投入周期, 持续在模型训练和推理端加大算力投入,模型性能得到快速迭代。与此同时,伴随 24 年 12 月以来 DeepSeek V3 和 R1 的逐渐发布,其首次实现了国产模型在推理任务上与 OpenAI-o1 的基本相当,并引发了访问流量的快速扩大(DeepSeek 应用(APP)于 2025 年 1 月 11 日发布,1 月 31 日 DAU 达 2215 万,达 ChatGPT 日活用户的 41.6%,超过豆包的日活用户 1695 万),伴随 Deepseek 带来的降本范式(FP8 混合精度训练框架)持续演化, 模型输入/输出成本得到快速下降,AI 应用大范围推广成为可能。云计算产业作为模型训练/推理需求快速扩大 下的直接受益方,进入了持续高景气周期。

站在当前时点,云厂云业务营收增速与营业利润率(或 EBITA 利润率)是 CAPEX 投入的前瞻指引。2023 年以来,伴随着 Transform 架构下 Scaling law 的持续生效,各家大厂均对模型训练做出大量投入。考虑到此时 海外厂商并不以投入产出比来做出 CAPEX 投入的衡量,且模型能力边界本身尚不清晰,因此 25 年以前,更多 以 CAPEX 本身作为实际算力需求的前瞻指引。但 25 年以来伴随 LLM 模型能力边界逐步逼近上限,模型训练 需求相对有所下滑,推理开始成为核心需求来源,CAPEX 投入产出比逐步进入可测算阶段。在此基础上,云业 务增速与营业利润率趋势成为算力需求的直观体现,也是后续 CAPEX 投入力度的核心决定因素。

以阿里云为例,24Q2 是阿里云算力投入决策的核心拐点。2022 年以来,由于互联网大厂业务的快速收缩, 阿里云营收增速快速下滑,同时伴随着云资源池利用率的降低,营业利润率随之下降。23 年以来,通过提升公 有云业务占比以提升利润率与发展 AI 以实现营收提速成为阿里云的核心战略。伴随 24Q2 阿里云营收增速首次 由负转正(AI 业务贡献较大增量),GPU 实例业务的需求和盈利性的首次得到论证,因此从 24Q3 开始,阿里云 CAPEX 投入力度快速加大,并在 24Q4 的业绩交流会上宣布三年 3800 亿资本开支计划。

当前国内云厂仍处于资本开支投入第一阶段,短期投入力度具备保障。参考海外厂商,云业务的发展往往 有三个阶段,而目前我国云计算业务还在第一阶段。以微软为例,23Q1 开始其率先进行大额 CAPEX 投入,以 配合 OpenAI 模型的快速发展,受益于更高利润率的 AI 业务快速发展,23Q1-23Q3 公司 Azure 营业利润率进入 快速上行阶段;随后,从 23Q4 开始高额资本开支开始逐渐对折旧端产生压力,相对应的微软也做了员工数量削 减,希望通过费用的控制来维持营业利润率的持续上行;后续,伴随折旧压力放大,资本开支进入平稳周期。

目前阿里云的营收分为对内关联交易和对外商务,对内 AI 部分主要支持夸克,钉钉,高德等调用通义 /DeepSeek 模型,对外创收中的 AI 业务主要包含 GPU 租赁、MaaS 服务、模型服务(百炼与 PAI 平台)三类。 由于近年来模型侧价值量逐渐被云端内化(MaaS 的价值量被带入到了 IaaS 中),导致 GPU 租赁成为了公有云 业务中毛利率更高的部分,大幅资本开支本质是为了让高毛利率 GPU 租赁业务占比快速扩大,以此拉动 AI 业 务规模快速增长。在此思路下,从 24Q2 开始,AI 业务成为支撑公有云增长核心动力,24Q2 一半以上营收增速 来自 AI 贡献,且在后续持续保持 100%以上同比增长。

相比传统 CPU实例,中期看 GPU实例将具备更高投入产出效率。一方面,传统公有云商业模式下,云厂 主要提供计算、网络、存储等同质化服务,难以在客户体验上产生本质性不同,更多是依托规模效应。而 GP U 租赁时代,客户需求主要聚焦于模型训练与推理,智算平台的运维能力和自动化、容错率是竞争优势的核心区 分,“有效训练时长”是各家智算业务中的一项关键性能指标,如阿里云今年四月就强调,其“万卡级超大规模 训练中,一个月内灵骏 GPU 集群有效训练时长占比能超过 93%”,相对而言,大厂云平台具有更强稳定性;另一方面,在提供 GPU 实例租赁的服务同时,大厂同时也会提供模型训练/推理加速服务,通过算力与通信的调度 实现训练效率数倍式提升。双重优势下,大厂 GPU 实例租赁具备一定溢价能力,相对传统 CPU 实例更具备投 入产出比。

长期看,通过超卖率的提升,GPU实例将持续保持较高的盈利能力。过去十年以来,公有云价格进行了数 次降低,其降价能力一方面来源于规模效应对运营成本的分摊(以及关键技术自有化),但另一方面也来源于 CP U 超卖能力的不断增强,使单 CPU 实例实际收费能力大幅上升,因此得以在不断降价的背景下实现利润率稳定; 目前阿里云 GPU 租赁业务仍以模型微调需求为主,而 TensorFlow、Pytorch 等智能化应用框架开发的应用往往 会独占一张 GPU 整卡,无法做超额出售,但伴随后续推理需求大幅提升,则 GPU 虚拟化是必然趋势。GP U 实 例超卖率的提升将进一步拉高 GPU 租赁业务的 EBITA 利润率,并为后续降价获客提供空间。

1.3 液冷:液冷散热加速渗透,大陆供应链机会显现

高算力需求推动算力中心单机功率密度提升,液冷散热走向必选。传统风冷系统通过让冷源更靠近热源, 或者密封冷通道/热通道的方案,来适应更高的热密度散热需求。随着机架密度升至 20kW 以上,多种液冷技术应运而生,从而满足高热密度机柜的散热需求。此外,液冷散热相较于风冷更加绿色低碳,PUE(Power Usage Effectiveness,数据中心总能耗/IT 设备实际能耗)是算力中心最常见的评价性能指标,也是行业评价算力 中心绿色性能的主要衡量指标,PUE 值越接近于 1,代表算力中心的绿色化程度越高,液冷散热往往更接近于 1。从分类来看,液冷技术主要分为冷板式、浸没式和喷淋式液冷技术等技术类型,其中冷板式液冷技术作为 成熟度最高、应用最广泛的液冷散热方案。

以英伟达 GPU芯片为例,单芯片及机架热功耗增长迅速。英伟达的 B 系列芯片和 NVL72 机柜热设计功 率 TDP(Thermal Design Power)大幅提升:H100 的 TDP 最高为 700W,B200 的 TDP 最高为 1200W,增长约 7 成;H100 每个机架的 TDP 约为 40kW,B 系列机架的 TDP 约为 120kW,功率增约 200%-500%。H100 机柜 主要采用风冷散热,但是由于受限于风冷散热效率较低和空间利用率低的缺点,GB200 NVL72 机柜采用水冷 散热。水冷散热能够提高芯片散热效率,大幅提高计算密度从而降低芯片互联之间的延时,进一步降低模型训 练成本。

风冷散热主要元件:热界面材料 TIM(直接覆盖在 GPU 之上)、集成散热器 IHS(与 TIM 相连)、多维两 相均温元件 3DVC(由热管和散热片组成,安置在 IHS 之上)、风扇(安置在服务器最前面或者最后)。 3DVC 的得名来自于 1 维的热管、2 维的散热片、3 维的热管与散热片腔体互通;VC(蒸汽室)来自于液体蒸发冷凝的过程。风冷散热原理方面,芯片的热量通过 TIM 传导至 IHS 之上,热量进入 3DVC 中将 3DVC 中的 液体蒸发为蒸汽,蒸汽通过热管向上传导至上方多层散热片中。由服务器前端和后端的风扇和数据中心的空调 将腔体内的蒸汽冷凝为液体,过程循环往复。因此,风冷散热有两部分组成:每个芯片上方的多维两相均温元 件与服务整个服务器散热的风扇和数据中心的空调。

液冷散热在散热能力及空间利用率方面优势显著。水的热容量为空气的 4000 倍,热导率是空气的 25 倍。 在相同温度变化中,水能存储更多的热量且热量的传递速度远超空气。GB200 的水冷计算托盘设计利用冷板与 冷却液的高效热交换机制,将芯片产生的热量均匀传递至冷板表面。冷却液以高流速经过冷板后能够迅速带走 热量并均匀散热。空间利用率方面。风冷的 HGX H100 计算平台高度大概为 6U(1U=4.445cm)。而采用风冷 设计的 HGX B200 则需要 10U 高度的风冷设备达到散热需求。相比较而言,使用 DLC 的 GB200 计算托盘的 高度仅为 1U。同样部署 8 块 GPU 芯片,HGX H100 高度为 6U,HGX B200 需要 10U,而 GB200 NVL72 只需 要 2 个计算托盘总计高度为 2U。空间利用率大幅提升。

冷板式液冷可带走 70%-75%的热量。冷板式液冷通过冷板将芯片等发热元器件的热量间接传递给封闭在 循环管路中的冷却液体,冷却液带走热量,并将其传递到一次侧回路,通过冷却系统进行冷却,最后将热量排出系统。冷板式液冷系统可以分为一次侧(室外)循环和二次侧循环(室内)两部分。其中,二次侧循环主要通 过冷却液温度的升降实现热量转移,而一次侧的热量转移主要是通过水温的升降实现。成本方面,一次侧占到 液冷成本的 30%左右,二次侧占 70%左右。从冷却效果来看,冷板一般使用在平坦表面时换热效果最佳,例如 CPU、GPU 和存储器模块等,不适用于电源和 IC 电容器等其它组件,综合来看,冷板液冷可带走机架中设备产 生的 70-75%的热量,因此需要采用混合冷却方法。

冷板是服务器液冷核心部件。冷板的材质可以选用铜、铝、不锈钢和钛合金等不同材质。铜导热系数高, 工艺性好,对于普通大气环境、海洋性气候条件及水等液体介质是适用的。铝冷板目前在数据中心行业的使用 还比较少,核心原因系铝材质的换热能力低于铜材质,铝的导热率是铜的 60%左右,相同换热设计下,铝冷板 的热阻更高;此外,铝材质活性更高,更容易与冷却工质发生反应,严重的可能造成冷却工质杂质增加,冷板 腐蚀、泄露,甚至最终影响系统使用。优点方面,冷板材质从铜到铝能帮助整个全液冷系统冷板重量节省约 44%, 而且铝冷板加工工艺灵活,大规模量产后一定程度上能比铜冷板成本节省 20%以上。其他材质:石墨烯涂层冷 板,即在铝板表面喷涂石墨烯(成本增加 20%),但可减少冷板厚度 30%,整体系统体积缩小。

浸没式液冷:通过将发热的电子元器件(如 CPU、GPU、内存及硬盘等)全部或部分直接浸没于装有非导 电惰性流体介质的机箱中的液冷散热技术。它包含两个循环:一次侧循环利用室外冷却设备(如冷却塔或冷水 机组)与热交换单元(如 CDU 等)进行热交换,排出冷却液热量;二次侧循环中,CDU 与液冷箱内的 IT 设备 热交换,传递热量给冷却液。根据冷却液在循环散热过程中是否发生相变,分为单相浸没式液冷和双相浸没式 液冷。①单相浸没式:作为传热介质的二次侧冷却液在热量传递过程中仅发生温度变化,而不存在相态转变, 过程中完全依靠物质的显热变化传递热量。②两相浸没式:作为传热介质的二次侧冷却液在热量传递过程中发 生相态转变,依靠物质的潜热变化传递热量。

喷淋式液冷:直接接触式液冷,面向芯片级器件精准喷淋,通过重力或系统压力直接将冷却液喷洒至发热器件或与之连接的导热元件上的液冷形式。散热效果:喷淋式液冷也可完全去除散热风扇(实现 100%液体冷 却),换热能力强,相较于浸没式液冷节省冷却液,数据中心 PUE 可降至 1.1 左右。喷淋式液冷需要对机柜和 服务器机箱进行改造,运维难度较大,节能效果差于浸没式液冷。

综合考量初始投资成本、可维护性、PUE 效果以及产业成熟度等因素,冷板式和单相浸没式相较其他液冷 技术更有优势,是当前业界的主流解决方案,冷板式液冷可以实现从传统风冷模式的平滑过渡,在数据中心领 域应用更多。

英伟达从 Hopper 到 Blackwell 硬件的第二大转变是采用了直接到芯片的液冷技术(DLC),以提高机架级 别的计算密度。据估算,GB200 NVL36 L2A 机柜热管理价值量中,服务器层面(冷板、风扇)价值量占比约 26%, 机架层面(Compute Tray、NV Switch、CDU、Mainfold)价值量占比约 65%。GB200 NVL72 L2L 服务器热管理 价值中,服务器层面价值量占比约 38%,机架层面价值量占比约 47%。关注 GB300 服务器新变化:GB200 服务 器设计中,冷板采用“一进一出”配置,每个 Compute Tray 配备 6 对快接头,NVL72 系统整体快接头数达 126 对(Switch Tray 2 对),总价值量约 10080 美元;而 GB300 可能摒弃“大冷板”,为每个 GPU 配备单独的冷 板,单个 Compute Tray 数量从 6 对增至 14 对,但新型快接头价值量有所下降,经测算,NVL72 系统中快接头 总价值量约 14040 美元。

我们认为,散热方面将是 AI 算力领域未来几年核心技术升级方向之一,英伟达单卡功耗从 700 瓦到 1200、 1400 瓦,未来有望迭代至 2000 瓦+,并且大机柜、超节点的出现,热源的叠加使得散热难度进一步提升,因此 散热成为了接下来持续迭代升级的方向。其次,目前供应商以台系、美系厂为主,如 Coolermaster、AVC、BOYD 及台达等,中国大陆供应商比例较低,随着液冷散热从研发走向大规模量产,中国大陆公司扩产能力更具优势, 我们认为液冷散热领域一系列部件会有更多中国大陆供应商进入到全球供应体系。

1.4 PCB:下游产品及应用需求旺盛,PCB 市场有望迎来量价齐升

服务器平台持续升级带来 CCL 材料等级提升及 PCB 层数增加。根据 Prismark 数据,PCIe3.0 总线标准下, 信号传输速率为 8Gbps,服务器主板 PCB 为 8-12 层,相对应的 CCL 材料 Df 值在 0.014-0.02 之间,属于中损耗 等级;PCIe4.0 总线 16Gbps 的传输速率,PCB 层数需要提高到 12-16 层,CCL 材料 Df 值在 0.008-0.014 之间, 属于低损耗等级;当总线标准提升至 PCIe5.0,数据传输速率达到 36Gbps,PCB 层数需要达到 16 层以上,CCL 材料 Df 值降至 0.004-0.008 区间,属于超低损耗材等级。2024 年 BrichStream 平台开始逐渐渗透,尽管 P CI e 标 准认为 5.0(AMD 平台对应 Zen5),但 CCL 材料等级已经逐渐向 UltraLowLoss 升级,PCB 板层数提升至 18- 22 层。

AI 服务器 PCB 层数及 CCL 等级显著高于传统服务器,且新增 GPU 板组。由于 AI 服务器架构相对更复杂、性能要求更高,单台服务器中 PCB 价值量较传统普通服务器会有明显的提升。其中 PCB 价值量增加点来自于: (1)新增 UBB 母板。AI 服务器最大的差异在于在传统 CPU 的基础上增加 GPU 模块来支持计算功能,因 此从过往的 1 块主板(CPU 母板)为主变为 2 块主板(CPU 母和 GPU 母版)。UBB 主板是搭载 GPU 加速卡的 平台,与 GPU 加速模块(SXM/OAM 模块)直接相连,为 GPU 加速模块提供高效的数据传输与交换通道,同 时具备一定的数据管理功能,通常具有高性能、高稳定性和高可拓展型等特点。 (2)OAM 加速卡增加 HDI 需求。在 AI 服务器中,为了增加 GPU 互连的通道数和传输速率,其硬件方案 集成度都相对以往 CPU 更高,对应的 PCB 转向 HDI。英伟达 A100、H100、GH200、B100 产品的加速卡均采 用 HDI 工艺制造,在 NVL72 的机架架构中,switchtray 也有可能采取 HDI 工艺。

北美 PCB 账面与账单比率连续 8 个季度维持在 1 以上。账面与账单比率是通过将过去三个月预订的订单价 值除以调查样本中同期公司的销售额计算得到的,账面与账单比率超过 1.00 的比率表明当前的需求领先于供应, 这是未来三到十二个月销售增长的积极指标, 2024 年 9 月至 2025 年 4 月,北美 PCB 在账面与账单比例分别 为 1.08、1.25、1.15、1.19、1.24、1.33、1.24、1.21,目前已连续 8 个月维持正在 1 以上。

GB200 PCB 设计材料全面升级。GB200 NVL72 核心是采用 superchip 设计的 Bianca 主板,一个系统内共 18 个 computetray、9 个 switchtray 和 36 个 superchip。单个 computetray 内有两个 superchip,每片 superchip 有 1 颗 CPU 和 2 颗 GPU,取消了 UBB 板和单独的 CPU 主板。相比 H100,NVL72 的 CPU 和 GPU 都在同一块 superchip 板上,因此不再需要用以承载单颗 GPU 的 OAM 加速卡和 CPU 主板。Switchtray 承担 GPU 的互联功能,因此 不再需要 UBB 板。即 NVL72 取消原来的 UBB,使用 Switchtray 进行 GPU 互联。 PCB 材料方面,相比 H100 的 CPU 主板、OAM 和 UBB 所用到的 M6/M7 级 CCL,GB200 NVL72 的 superchip 材料将升级为更高等级(M7+)的 CCL,损耗降低,同时信号传输速率更高、布线密度更大、散热效果更好的 HDI,以满足 GPU 大幅度提升的 AI 计算性能要求。

Blackwell Ultra(B300)芯片算力性能再度升级。GTC2025 上,基于 Blackwell 架构的新一代 AI 计算平台 Blackwell Ultra(B300)正式发布,专为大规模推理和复杂任务设计,针对实时推理和 Agentic AI 进行专门优。核心规格方面,Blackwell Ultra(B300)首次采用 HBM3e-12Hi 内存堆栈(B200 为 8Hi),单芯片显存提升为 288GB。 基于台积电 4nm 工艺集成 2080 亿晶体管,单卡功耗达 1.4kW,支持液冷设计。采用 NVLink5.0 技术,实现 1.8TB/s GPU 间互联带宽。算力性能方面,Blackwell Ultra 搭载新一代 Blackwell Tensor Core,FP4 算力较前代 B200 提升 50%,达 15PetaFLOPS,针对推理场景有特别优化。并在芯片架构、通信速度、能效表现、安全性等 方面有更出色的表现。

PCB 进入 NV 链,看好上游环节例如树脂、玻纤布、铜箔、球硅等逐步进入全球供应链。目前国产 P CB 及 其配套的上游产业链已进入 NV 芯片链,其上游的树脂、玻纤布、铜箔、球硅等关键材料环节正经历从本土配 套到全球布局的蜕变,逐步跻身全球供应链体系。例如,在树脂领域,国产低介电双马、PPO 等高端材料正凭 借 AI 服务器的技术适配优势,从替代进口向打入国际头部企业供应链迈进。后续有望进入亚马逊、Meta、谷歌 等海外厂商芯片产品供应链,从样品测试到小批量供应,再到批量订单,这些上游环节稳步打破国际供应链壁 垒,在全球 PCB 产业分工中占据越来越重要的地位,看好国产 PCB 上游产业链发。

高速覆铜板对电性能要求更严苛,PPO、碳氢等树脂材料受到关注。随着 AI 服务器、CPU 服务器 PCIe 、交换机、光模块持续升级,对上游 CCL 及其树脂材料要求也相应升级。从??介电损耗指标出发:在 M6、M 7、 M7N 级 CCL 领域,PPO、PI 等树脂、改性 BMI 的??值满足要求;在 M8 级 CCL 领域,PPO 等树脂的??值满 足要求;在 M9 级及以上 CCL 领域,??值要求在 0.001 以内,树脂材料或向碳氢、PTFE 体系迭代。但另一方 面,碳氢树脂、PTFE树脂面临粘结性差、加工难度大等问题,运用在覆铜板领域有局限性,有待工艺进一步优 化。

PPO 电化学性能优异,改性后成为高速 CCL理想材料。聚苯醚简称 PPO,是一种耐高温的热塑性树脂;由 2,6-二甲基苯酚聚合得到,相对分子量为 2.5~3 万,并于 1965 年实现了工业化生产。改性前的聚苯醚优点是: 具备突出的耐热、力学性能、电气绝缘性能等。缺点是熔融温度高,熔融粘度大,加工困难,浸透性差,不耐某 些有机溶剂,不能满足覆铜板的要求。因此为了将 PPO 提升加工性等性能以用于覆铜板领域,必须将其改性为 热固性树脂。

国产高端电子树脂加速进入全球供应链。覆铜板生产以大陆为主,国产上游材料供应链迎来机遇:2020 年 中国大陆地区覆铜板产量(含台资、日资)已占全球的 76.9%,在高速 CCL 需求快速增长下,国产 PP O 供应链迎来战略性机遇。行业格局集中:尽管有部分厂商布局低分子量 PPO,但实际批量出货的厂商仅有少数几家, 其中以 SABIC、圣泉集团为代表。另外圣泉集团、东材科技、世名科技等国产厂商也在加速布局下一代碳氢树 脂。 电子布在 CCL中起增强作用,由电子级玻璃纤维织造而成。电子纱是玻璃纤维中的高端产品,被广泛应用 于各类电子产品。玻璃纤维具有耐腐蚀、耐高温、吸湿性小、强度高、质量轻、电绝缘和阻燃等优良性能,被广 泛运用于消费电子、工业、通信、航天航空等领域,电子级玻璃纤维纱,业界通称“电子纱”,是玻璃纤维纱中的 高端产品,单丝直径不超过 9 微米,具备优异的耐热性、耐化学性、电气及力学性能。电子纱是制造电子级玻 璃纤维布的主要原材料,被广泛用于各类电子产品中。 电子布由电子纱制造而成,在 CCL 中起增强作用。电子级玻璃纤维布由电子级玻璃纤维纱织造而成,可提 供双向(或多向)增强效果,属于重要的基础性材料,业界通称“电子布”。电子布具有高强度、高耐热性、耐化 性佳、耐燃性佳、电气特性佳及尺寸安定性佳等优点,起绝缘、增强、抗胀缩、支撑等作用,使印刷电路板具备 优异的电气特性及机械强度等性能。电子布作为基材在覆铜板行业的大规模应用,解决了 PCB 容易短路、断路 等问题,目前 70%以上的 CCL 采用电子布作为基材。

高频 PCB 需要 LowDk 玻纤布,提高 SiO2 或 B2O3 质量分数为有效制备手段。AI 等行业发展牵引高频 P CB 需求,降低玻纤布的 Dk 值能有效满足前述需求。人工智能等行业的迅速发展对电子级玻璃纤维提出了更高的 要求,为了减少信号传输的滞后和强度的衰减,要求电子级玻璃纤维在高频下具有更低的介电常数(5 左右)和 介电损耗(<10^-3)。目前应用最广泛的传统 E-玻纤的 Dk 值一般在 6.6 左右,明显高于一般树脂基材(2.0- 4. 0 左右),无法满足高频 PCB 的要求,所以降低玻纤的介电常数尤为重要。为了满足高频 PCB 对玻纤低介电常数 的需求,玻纤企业开发了低介电(LowDk)玻璃纤维。 提高 SiO2 或 B2O3 的质量分数是制备 LowDk 玻纤的有效手段,但会降低加工性能并提高生产成本。在现 有的技术条件下,LowDk 的玻璃纤维一般具备高质量分数的 SiO2 或高质量分数的 B2O3,亦或者是同时具备, 如日本旭硝子株式会社开发的 D-玻纤,其 Dk 仅为 4.1,相比 E-玻纤降低了 38%。但碱金属和碱土金属氧化物 含量的降低会导致成纤温度升高,加工性能变差,且因为 B2O3 价格昂贵,生产成本会显著提高。

日本技术实力领先,中国企业市场份额有望快速提升。日本的 LowDk 玻纤发展较早,技术领先,此外美国、 中国台湾、中国大陆的相关企业也占据一定市场份额。据 QYR(恒州博智)统计,全球低介电玻璃纤维核心厂 商有日东纺、AGY、台玻、富乔和泰山玻纤等,前五大厂商占有全球大约 93%的份额。目前市场上成熟的 Lo wDk 玻纤主要有日本东纺的 NE低介电玻璃纤维、AGY 的 L-glass 低介电玻璃纤维、泰山玻璃纤维有限公司的 T LD -glass 低介电玻璃纤维和重庆国际复合材料有限公司的 HL 低介电玻璃纤维等。

PCB 刀具是用于 PCB 电路板的特殊切削工具。PCB 刀具通常由硬质合金制成,具有高硬度和耐磨性,可以 在 PCB 板上进行精确、高效的切割、开槽、铣削和钻孔等操作。常见的 PCB 刀具包括钻头、铣刀、V 槽刀及其 他 PCB 专用特种刀具。 PCB 刀具具有高效性、精确性、耐磨性、多适用性的优点。高效性方面,PCB 刀具能够高效地削除电路板 上的材料,提高生产效率;精确性方面,能够精确地切割、孔加工和铣削 PCB,保证电路板的质量;耐磨性方 面,PCB 刀具通常采用高硬度和耐磨性材料制成,具有较长的使用寿命;适用性方面,能够处理不同种类的基板材料,如 FR-4、金属基板等。以钻针为例,其主要用于 PCB 制程中的钻孔工序,包括钻出通孔、盲孔等, 或对已有的孔进行扩孔。

常见的 PCB 刀具有钻头、铣刀、v 槽刀和清洁刀等。钻头用于在 PCB 板上钻孔,通常使用微细的钻尖,可 以实现高精度的孔径和孔位。铣刀用于去除 PCB 板表面的材料,通常通过旋转刀具和移动 PCB 来削减材料, 以实现平整的表面或特定形状的切割。V 槽刀用于在 PCB 板表面开槽,通常采用 V 形的刀口设计,可用于切割 出直角边界、倒角或者打入标记。切割刀则用于将整个 PCB 板分割成所需的尺寸,通常使用圆盘形或环形刀片, 可以快速而准确地切割 PCB 板。清洁刀用以去除 PCB 表面的毛刺和残留物,以确保板子的表面平整、干净,并 提供更好的电气连接性。

涂层技术能提升 PCB 刀具性能与寿命。涂层是刀具非常常见的一项工艺,在刀具形成后,外发涂层会让刀 具的整体质量更加优秀,在润滑、抗耐磨、排屑等方面实现较大提升,涂层其实也分为很多不同的样式,常见 的钻头涂层有黄钛 TIN,紫钛高铝钛等。一般涂层刀具的切削力比未涂层刀具平均降低 15%-20%左右,与之对 应的则是涂层刀具寿命的提升。ta-C 是一种无氢 DLC 涂层,其 sp³与 sp²键比值高,具有极高硬度和强润滑性, ta-C 图层显著提升了孔位精度和加工品质,在有效降低断针发生几率、防止涂层钻针粘着,改善排尘等方面发 挥重要作用。薄而光滑和高硬度等特点充分保证了刃口锋利,可应用于加工有色金属复合材料、中高 T G、无卤 素高速板、软板、铝基板、封装板等。

1.5 铜链接:超节点优势显著,铜连接趋势放量

在大模型训练过程中,包括多种并行计算方式,例如 TP(张量并行)、 EP(专家并行)、PP(流水线并行) 和 DP(数据并行)。通常来说张量并行和专家并行需要较大的通信量,对大规模 GPU 集群的通信能力提出较高 要求。GPU 集群的组网通常分为 Scale Up 和 Scale Out 两种拓展方式,Scale Up 向上扩展,也叫纵向扩展,增 加单节点的资源数量。Scale Out 向外扩展,也叫横向扩展,增加节点的数量。Scale Out 网络提供 Tbps 级别的 带宽,Scale Up 网络提供 10Tbps 带宽级别的互联,Scale Up 凭借通信速度更快、成本更低、方便运维成为发展 重点,搭建超大带宽互联 16 卡以上 GPU-GPU 的 Scale Up 系统成为一个重要趋势,这样的 Scale Up 系统通常被 称为超节点。

超节点作为重要的产业趋势已经被国内外众多服务器选为下一代方案,同时大部分的超节点方案都会采用铜连接作为主要承载载体。通信网络中常见的连接解决方案包括光通信和高速电通信,无源 DAC 作为电通信的 主要解决方案其不包含光电转换器模块,具有很高的成本效益和运营可靠性,成为实现短距离传输的优秀解决 方案。目前的铜缆已经实现 224G 以太网 Serdes 高速通信技术升级,短距离传输性价比突出,在 AI 服务器高集 成度的趋势下,铜连接呈现一定的趋势放量。 业界主流的超节点方案主要包括私有协议方案和开放组织方案两种,私有协议主要包括英伟达、Trainium 方案、华为方案等。在英伟达方案中,GB200NVL72 服务器采用大量的铜连接作为机柜内部通讯方 式, GB200NVL72 机柜中不同的计算托盘间采用电缆进行互联,内部使用电缆长度累计接近 2 英里,共有 5000 多 条独立电缆。计算托盘内同样采用大量铜连接作为服务器内的 GPU 芯片互联。GB200NVL72 服务器中包含三种 铜缆:三种柜内线(NVL72 机柜以内的定义为柜内线)以及柜外线(机柜间的互联定义为柜外线)。 计算托盘间的铜缆连接:单张 B200 对应 1 条 NVLink5.0 连接,每条传输双向 1.8TB/s 带宽,Serdes 对应的 规格为 224Gbps 通信协议,铜缆也采用难度更高的 224Gbps 产品,即单张 B200 上面通常连接 72 个差分对(72 根线)即可以达到可支持的 1.8TB/s 的带宽。NVL72 单个 Rack 中共有 72 张 B200,可以得出需要 5184 根线 (72*72),平均长度约 0.6 米,合计 5184*0.6=3110 米,考虑背板线主要采用高端的 26AWG 型号的线,单价 按照 7 元/米计算,则单个 NVL72 机柜中背板线高速铜线价值量为 21773 元/台。

交换机内部互联:NVSwitch 芯片全部通信带宽连接背板连接器,总共需要 5760 根 overpass 线,每根 0.3 米,9 个交换托盘合计 1728 米,单价按照 7 元/米计算,则合计 12096 元/台。在 NVL36 解决方案中,NVSwitch 芯片一方面连接背板连接器,一方面连前端 I/O 端口,其中连接背板连接器的 OverPass1 线共 2880 根,每根 0. 3 米;连接前端 I/O 端口的 OverPass2 线目前为 1440 根,每根 0.5 米,9 个交换托盘合计也为 1584 米,单价按照 7 元/米计算,则合计 11088 元/台。 计算托盘内部:由 PCIE线实现 CPU 与 I/O 端口之间的互联,单个 tray 预计 0.4*16*8*4=205 米,NVL72 合 计 18 个 tray 盘,则合计为 205*18=3690 米。单价按照 2.5 元/米计算,则价值量为 9216 元。

X800 交换机内部:内部高速线总数为 1152 根,长度 0.5 米,单价按照 7 元/米计算,则价值量为 4032 元。

英伟达服务器市场规模测算:考虑到 2025 年 NVL36、NVL72 机柜整体出货量(NVL72 预计 3 万台以及 NVL36 1.5 万台),铜缆高速线市场就达到 34 亿+。考虑到 2026 年 NVL36、NVL72 机柜整体出货量(NVL72 预计 9 万台),铜缆高速线市场就达到 60 亿+,保持高速增长。 在 AWS 的 Trainium2 中,Scale up同样采用铜连接方案。每台服务器单元包括 64 个 Trainium2 芯片(跨 两个机架)连接在一起,形成一个 4x4x4 三维环面的单一扩展世界大小,称为 Trainium2-ultra,同样采用 DA C 和 AEC 方案。

在开放协议中,目前的开放标准不止一个,基本上都是以以太网技术(ETH)为基础,以太网技术最成熟、 最开放,也拥有最多的参与企业。在超节点开放标准中,其中比较有代表性的,是由开放数据中心委员会(ODCC) 主导、中国信通院与腾讯牵头设计的 ETH-X 开放超节点项目。在 ETH-X 的架构中, 分为 Scale-up 和 Scaleout 两个主要组网部分, 其中 Scale-up 网络负责 HBD 内部 GPU 与 GPU 之间的互联, HBD 可以由一个或 者多个高功率 Rack 组成,通过 Scale-up 进行扩展;多个 HBD 通过 Scale-out 的扩展方式组成更大的 GPU 集群。国内字节、阿里、腾讯新一代服务器分别采用超节点设计,预期将进一步带动铜连接整体市场空间。

1.6 服务器电源:功率密度持续升级持续演进,重视机柜式服务器升级机遇

从供电过程本质上,电源本身不产生任何能量,只是作为电网中电能的传导,其核心是实现整流与变压两 项功能。整流即是实现不同形态电能的转换(直流变交流、交流变直流),变压即是实现电压的升高或降低。此 外,针对于特定场景,电源会添加额外功能,如服务器电源就需要在散热、监控、电流调节上做额外的功能追 加从用途功能分类上,电源可分为嵌入式电源与非嵌入式电源,嵌入式电源通常被直接安装在设备内部或特定 空间内,又可分为普通开关电源与模块电源两类,其中模块电源往往是被镶嵌在电路板上。

整体来看,AI 电源的架构从供电次序的角度来看主要分为三级:UPS—AC/DC—DC/DC。在数据中心的电 力从电网传输到加速器芯片的过程中,电压要从 1-3 万伏特降低至 0.5~1 伏特以供芯片使用,其中电源主要指 AC/DC 与 DC/DC 部分。AC/DC 环节的输入是 PDU 输入的交流电,经过降压、整流两个过程最终输出 12V 直 流电,此后再经过层层降压以达到芯片的工作电压(AI 服务器因为耗电大,为减少损耗所以可能选择先输出较高 的 50V/48V 电压)。DC/DC 环节则进一步将电压调降至芯片可用电压,一般而言是将 12V 降至 1V 或 0.8V,若 整体服务器功耗较大,也可能是先从 50V/48V 降至 12V,再从 12V 降低至 1V 或 0.8V。

1.6.1 算力需求飞跃带来用电需求急剧上升

AI 需求将带动能耗进入快速增长阶段。耗电量可以根据 AI 服务器的预计销售量及其额定功率进行预测, 考虑到 AI 服务器的快速放量,预计 2026 年 AI 带来的电力消耗有望达到 2023 年的 10 倍。当前算力需求主要由 模型训练所贡献,后续伴随 AI 应用快速落地,算力与算力能耗需求增长仍有进一步提速空间。 核心看,伴随服务器(尤其是 AI服务器)功耗总额的快速提升,在 OCP ORV3 标准限制下服务器电源必 须通过提升功率密度并维持高能源转化率(钛金 96%以上)以满足服务器运转需要。更好的材料、更优的拓扑、 更多的集成是功率密度提升的主要途径,因此电源行业不仅享受了总功耗提升带来的需求快速上行,同时也因 为材料变更、散热需求加强等因素带来了单瓦特价格提升现象,并助力行业空间快速扩容。此外,考虑到近期 大陆区域外流片难度加大,伴随大陆区域流片芯片占比增加,电源功耗需求有望呈现进一步提升趋势。

从实际配置角度看,服务器整机品类繁多,不同服务器芯片配置方案不同。以 DGX 系列为例,DGX A100 整机功耗上限 6.5KW,DGX H100 整机功耗上限 10.2KW,NVL 72 整机功耗 120KW。伴随单电源功耗总额快 速上升,电源功率密度也处于持续提升进程当中,考虑到功率密度的提升同时还伴随着单功耗价格的上升,市 场空间快速扩容。

2025年人工智能行业中期投资策略报告:推理走向舞台中央,自主可控大势所趋,Agent及多模态加速

此外,伴随单机柜容纳 GPU 数量逐渐增多,机柜功耗总额快速提升(NVL 72 总功耗已达 120KW )。机柜 类服务器占比的提升在三个层面对供电系统提出更高要求:1)更高性能的供电总线;2)更高压的交流与直流 电(如 DC/DC 模块电压输入可达 800V,从而大幅减少发热损耗);3)更低损耗的内部供电电路。从而使得电 源获得了额外的溢价能力,市场空间更加广阔。

后续伴随海外 Rubin 架构芯片产品落地,服务器电源功率密度有望再次实现飞跃。近期,英伟达联合其他 电器设备供应商,发布预定 2027 年落地的 800 V HVDC 数据中心电力基础设施计划,以用于支持 1 MW 及以 上的 IT 机架。考虑到当前机柜式服务器中电源的溢价主要来自于空间的紧缺以及散热能力的提升,远期 1MW 机柜必将衍生出更高价值量的电源需求。

1.7 国产算力:替代趋势较为明确,生态能力逐步完善

中期维度看,订单向国产芯片倾斜式必然趋势。由于美国政府芯片法案多轮制裁,英伟达旗舰芯片向中国 的售卖持续受阻,从 2022 年的片间互联、23 年的算力以及算力密度限制、到 2025 年初的 1700GB/s 通信带宽 限制,英伟达产品被迫多次进行阉割,竞争力持续下降。云厂商以及人工智能初创公司基于算力稳定供应诉求, 将更多算力采购规划倾斜向国产芯片,并且比重不断加大。尽管后续依旧存在推出满足 BIS 需求的定制版中国 芯片,但其市场竞争力则存在较大疑问。

目前国产芯片市场集中度提升趋势明显。由寒武纪、华为为代表的芯片公司凭借强大的技术实力、优异的 产品性能、以及前线业务资源的大量投入,最先实现商业化客户业务的成功落地,在大模型推理算力建设中贡 献大量算力;以天数智芯、沐曦、昆仑芯为代表的创业公司也在奋起直追,通过良好的产品性能以及性价比, 争取大规模商业化客户成单机会,近期可以观察到国内芯片厂商纷纷投入大量人力物力资源,尝试与多家头部 互联网客户进行业务绑定。

国内芯片生态建设分为两大路线,一条是以天数智芯、沐曦、海光等主打 GPGPU 路线,追求与英伟达的CUDA 兼容,实现兼容性与通用性提高,在客户处实现迁移成本与迁移时间大幅度下降,在英伟达的生态圈内 抢占市场。后续 CUDA 升级或模型升级,CUDA 兼容路线软件栈同样需要更新升级以适配,长期跟进对人力消 耗较大;另一条则是以华为的 Mindspore 为代表的自主生态,试图在英伟达生态圈外建立单独生态圈,与英伟 达进行竞争。其后续突围能力,除技术成熟度外,更多考量产品出货量与基于 Mindspore 开发的研发人员数量, 对长期持续投入具有较高要求。

随着国内算力消耗快速增长(典型如字节跳动,每三个月 token 消耗接近翻一倍,5 月底为 16.4 万亿 token), 我们预计国内各家大型云厂商在日均 token 消耗达到 30 万亿 token 时会感受到算力紧张,在达到 60 万亿 token 时会开始出现一定算力缺口。我们认为国内增速斜率更陡峭,国产芯片今年将迎来发展大年。

二、模型与应用

2.1 模型端:从推理到智能体的大模型发展之路

GPT4 系列基础模型表明,预训练受到 Scaling Law限制愈发明显,仅提升参数规模、扩大数据集对模型性 能的提升边际递减。而后训练、测试时扩展方兴未艾,DsspSeek-R1 等实践证明推理时代已全面开启;Claude4、 Gemini 2.5 pro 强大的代码能力则说明大模型行业正走入智能体阶段。

2.1.1 Claude 4 再次突破模型能力边界

2025 年 5 月,Claude4 系列发布,共包括两款模型:Opus 4(旗舰款)和 Sonnet 4(标准款)。据 Anthropic 介绍,新发布模型专为高级推理、代码生成、智能体任务等新一代人工智能功能设计,在复杂长时间任务方面 展现出强大的性能。两款模型的具体得分情况如下。

Claude Opus 4:在 SWE-bench 和 Terminal-bench 测试中,分别以 72.5%和 43.2%的得分全面领先,碾压 OpenAI 刚刚发布的编程智能体 Codex-1 和最强推理模型 o3。Claude Sonnet 4:编码能力突出,在 SWE-bench 测试中取得 72.7%的成绩。Sonnet 4 在内部及外部应用场景中,均实现了性能与效率的良好平衡,可操控性也大 大增加,在能力与实用性之间达到了最佳平衡。

Claude 4 具备一系列新的强大功能:一是使用工具进行扩展思考,在推理和使用工具之间交替切换,提升 了其推理能力;二是与 Claude Code 深度集成,大幅提升其代码能力与任务执行能力;三是一系列新 AP I 功能, 包括 MCP、代码执行、本地文件 API、提示词长缓存,使其综合实力非常完备。Claude 4 出色的编程能力也表 明,在人工智能从推理 AI 迈向智能体 AI 的过程中,大模型的能力拓展方向已经开始向编程、工具调用等方向 转变。

2.1.2 OpenAI o3 图像推理与工具调用双轨并行

2025 年 4 月,OpenAI 发布最新 o3 模型。作为目前最强大的推理模型,o3 在图像推理、编程、工具调用 等方面表现出色。o3 能够将图像内容融合入思维链中,能在思考全程任何时刻进行视觉推理,多模态能力显著 提升。同时,o3 通过扩展强化学习提升了工具能力,研究团队在模型强化学习阶段进行了大规模 Scaling,训练 了模型使用工具的能力。此外,o3 也是未来 Agent 的强力基底模型,可以通过 API 中的函数调用访问自定义工 具,结合模型自身强大的推理能力,能够自主完成更多更加复杂的任务,特制版本的 o3 已经作为 OpenAI Deep Research 的基底模型提供服务。 OpenAI o3 拥有强大的图像推理能力,首次实现了图像与思维链的整合。模型不仅能“看到”图像,更能 “用图像进行推理”。这一突破实现了视觉与文本推理的深度融合,使其在多模态基准测试中达到最先进水平。 o3 强大的图像推理能力基于视觉理解与工具调用的有机结合实现。一方面,o3 的视觉理解能力十分强悍,根据 用户测试,不论是手写内容,还是拍摄照片,模型都能实现准确理解。即使图像存在模糊、倒置或低质量的情 况,模型仍能准确解析。另一方面,模型具有很强的工具调用能力,配合 Python 数据分析、网络搜索和图像生 成等工具,o3 能在推理过程中即时操控图像,让图像处理成为其思考的一部分。

不过在实际测试中,o3 表现出了较高的幻觉率,官方称 o3 幻觉率为 o1 的 2 倍,部分研究者认为该现象是 强化学习所致。

2.1.3 Gemini 2.5 pro 全面实现后进者超越

Gemini 2.5 Pro 是 Google Gemini 2.5 系列模型的专业版,于 2025 年 3 月首次发布,并在 2025 I/O 大会发 布升级版本。Gemini 2.5 pro 编程能力强大,在测试中优于领域标杆 Claude 3.7 Sonnet,在 Mensa Norway 的 IQ 测试中突破 130,同时具备很高的性价比。

在升级版本中,Gemini 2.5 pro 新增“Deep Think”模式,推理能力大幅提升,通过并行探索多种假设并交 叉验证,在 USAMD 2025、LiveCodeBench、MMMU 等模型基准测试中均位列第一,全方面超过 OpenAI 的 o3 和 o4-Mini。Gemini 2.5 Pro 在多模态处理方面也取得了显著进展,能够无缝集成分析视频、音频、图像、文字 和代码等多种数据格式,VideoMME 基准测试中得分高达 84.8%,能够处理长达 6 小时的视频内容,优于同类 模型。此外,Gemini 2.5 Pro 的编程与开发能力增强,模型可将描述性语言直接转化为可运行的代码,并进一步提升了处理复杂的前端开发任务的能力。

端侧模型方面,Google 基于 Gemini 2.0 开源发布本地化轻量级模型 Gemma 3(包括 1B、4B、12B、27B 版 本),在预训练和后训练过程中,Gemma 3 使用了蒸馏技术与强化学习进行了优化,是谷歌迄今最先进、最便携 的开源模型,专为端侧设备本地化部署、运行而设计,完全可以在 3090 GPU 的消费级设备上运行。

2.1.4 DeepSeek R1 在全球范围形成有力竞争

2025 年 1 月,深度求索 Deepseek 发布 R1 模型。模型在推理任务上表现出色,取得了与 OpenAI o1 相媲 美的成绩。在知识密集型任务基准测试中,性能显著超越了 DeepSeek V3 模型,同时在开放式问答领域也展现 出了强大能力。DeepSeek R1 在长 CoT 数据微调基础上应用强化学习,除性能提升外,DeepSeek R1 采用 GRP O 强化学习策略,专门优化数学推理任务,减少计算资源消耗,实现更低的成本。此外,DeepSeek R1 能够通过蒸 馏将 R1 的推理能力迁移到更小的模型中,经过 R1 蒸馏的小模型,在推理能力上得到了显著提升。推理成本来 看,R1 模型价格只有 OpenAI o1 模型的几十分之一,具有极高的性价比优势。

DeepSeek 近期发布一系列技术进展。2025 年 4 月,DeepSeek 团队联合清华大学发表论文,提出 DeepSee kGRM-27B,运用“自我原则点评调优(SPCT)”的学习方法,增加了推理阶段的计算资源,实现了推理优化,显 著提升模型性能。DeepSeek 同期开源发布 DeepSeek-Prover-V2,参数规模分别为 7B 和 671B,是一款专为数 学/编程打造的模型,通过递归+强化学习的模式大幅增强了数学推理能力。DeepSeek-Prover-V2 的技术亮点有 两个,一是通过递归证明搜索方法生成冷启动推理数据,利用 DeepSeek-V3 作为统一工具进行子目标分解;二 是基于冷启动数据进行强化学习,采用 GRPO(同样用于 DeepSeek-R1)的强化学习算法。

2.2 独立 AI 应用:北美 AI 应用分析

根据全球增速榜,2025 年 3-5 月 AI 应用市场的核心增长动能集中于多模态内容生成领域,其中,视频与音 乐生成领域表现最为亮眼:4 月,动态影像生成应用 Hula MAU 达 205 万,环比增长 1067.20%,登顶全球增速 榜首,5 月音乐创作工具 Donna MAU 达 279 万,环比增长 1204.08%,进一步以"文本到歌曲"的端到端能力刷 新增长纪录;成熟产品同样展现持续爆发力,字节旗下视频生成平台 Pixverse 与头部音乐工具 Suno 以平均近 30%的增长率验证规模化能力,反映多模态技术正进一步推动行业从实验性工具向生产力基础设施演进。

在国内总榜中,我们发现 AI 聊天、搜索及视频生成三大领域仍占据主导地位。夸克、纳米 AI 搜索持续稳 居榜单,其中,夸克连续三月稳居国内总榜 Top2,MAU 始终维持在 1.5 亿量级;字节旗下视频生成工具即梦 AI 连续三月位列 Top6,凭借抖音生态赋能与工业化视频生产能力,3 月增速达 173.57%,5 月仍保持近 40%高增, 季度净增超千万用户。此外,百度网盘 通过“云存储 AI 化”(叠加智能修图/文档创作功能)激活 10 亿存量用户 基本盘,5 月以 1.53 亿 MAU 空降总榜榜首,首超夸克登顶;智能办公垂类代表天工 AI 深耕生产力场景,5 月 MAU 达 711 万,远超垂类工具均值。

2.2.1 AI 视频生成

2025 年全球 AI 视频生成技术迎来突破,核心驱动力源于扩散模型(Diffusion)与 Transformer 架构的结合,解决了视频生成的时空一致性与物理规律模拟难题。OpenAI 的 Sora 模型率先打开行业想象空间,推动生成 时长从早期 5 秒延伸至 60 秒以上,PixVerse V2 支持 8K 分辨率 3D 动画生成,并实现电影级运镜与多角色动态 交互,据 Gartner 预测,到 2026 年 AI 生成内容将占据 30%的影视制作流程。技术迭代显著降低制作成本,影视 级特效的传统成本约 8 万美元/秒,而 AI 生成成本降至 800 美元/秒,ROI 提升近 10 倍。 PixVerse 是由爱诗科技研发的 “全球领先 AI 视频生成平台”,自 2024 年海外上线后迅速风靡,截至 2025 年 5 月单月月活近 2000 万。其核心目标是通过 AI 技术民主化影视创作,让普通用户无需专业经验也能生成电 影级视频。最新版本 PixVerse V4.5 以“电影级镜头参数化模板库”为核心创新,预设超过 20 种专业运镜轨迹 (如希区柯克变焦、右侧环弧跟拍),用户无需手动设计运镜路径即可实现电影级动态构图。其多元素分层融 合系统支持同时导入角色、场景、道具等多张参考图,通过分层渲染与跨模态光照统一算法,彻底解决传统视 频生成中角色与背景割裂的难题。同时,结合“实时物理引擎”对布料飘动、流体飞溅等刚体与流体动力学的精 准模拟,大幅提升动态画面的物理合理性。

2.2.2 AI 音乐

Al 音乐生成是指通过对大量音乐数据进行学习和分析,掌握音乐的基本规律和风格特征,从而创作出音乐 片段或完整的歌曲。根据《2024 中国音乐产业发展总报告》披露的数据测算,基于 AIGC 的音乐生成工具在国内 市场应用率已达到 35%,为数字音乐市场贡献了超过 150 亿元的新增产值。 AI 音乐领域的技术演进已从早期 So-vits Svc 音色克隆升级至端到端创作,核心技术突破体现在:CoT 机制 提升创作逻辑性、多模态融合以及声厂精细化。国际层面,Suno V4 实现 4 分钟高质音乐生成,Udio 借助社交 媒体快速普及,而 OpenAI、谷歌、Meta 等巨头亦布局 MuseNet、MusicLM 等工具;国内企业同步发力场景落 地,中国昆仑万维推出全球首个引入 CoT(思维链)机制的音乐推理大模型 Mureka O1 及多语言支持模型 Mureka V6,通过自研 ICL 技术优化声场效果与人声质感,在性能上超越 Suno V4 登顶 SOTA,字节跳动海绵音乐支持 “文字+图片”多模态创作,趣丸科技天谱乐接入唱鸭 APP 实现创作到分发闭环,但腾讯音乐(X·Studio )、网易 云音乐(启明星) 因依赖版权库优势,技术投入活跃度相对滞后。目前的 AI 音乐大模型赛道呈现技术竞逐与 场景深化并行的格局,未来竞争核心在于垂直场景渗透深度与跨文化情感计算能力的持续突破。 Suno:Suno 是当前全球领先的 AI 音乐创作平台,能够通过用户输入的自然语言指令在 2 分钟内自动生成 包含完整作曲、歌词、人声演唱及多乐器伴奏的歌曲,其最新 V4.5 版本首次突破性支持 8 分钟超长曲目生成, 新增 12 轨道高精度音频分离功能,可提取人声、鼓组等独立音轨供专业混音;同时推出动态情感调节引擎,通 过颤音与爆发力参数实现 AI 演唱的细腻情绪表达。此外,平台强化了专业音乐制作生态整合能力,用户可在内 置编辑器中重组段落、修改歌词,并直接导出工程文件至 Ableton 等专业音频软件。当前 Suno 面临的核心挑战 在于与环球等唱片巨头的版权协商(或采用类 YouTube 的 Content ID 追踪系统)及音乐生成物侵权诉讼风险, 但其以零乐理创作民主化颠覆了传统音乐产业协作链条。根据 AI 产品榜最新订阅收入数据,Suno 2025 的年化 订阅收入环比增长 11.21%,达 1828 万美金。

2.2.3 AI 图像编辑

2025,全球 AI 图像领域在大模型与生成式 AI 技术的驱动下实现跨越式发展,技术突破与场景应用深度融 合,显著提升了消费者体验并激发商业创新活力。根据 Adobe 测算,24 年全球图像生产力行业 TAM 约 630 亿 美元,行业收入合计约 200 亿美元,充分验证商业化能力。 当前,AI 技术颠覆的核心仍聚焦于生产力场景,AI 通过语义理解实现“语言驱动编辑”,大幅提升传统工作 流效率;而在生活场景中,由于用户的习惯固化与低学习成本特性,AI 技术短期内主要扮演功能补充角色,传 统应用凭借活跃用户底盘以及亿级用户数据积累,借力模型技术实现垂直场景的细化升级,逐步拓展功能边界, 有望实现进一步用户转化。与此同时,AI 应用通过创造爆款功能(如黏土滤镜、虚拟换装)激发 UGC 传播势 能,通过社交裂变实现用户触及,在用户规模与市场声量上展现更强成长性。 FaceApp:FaceApp 是由俄罗斯公司 Wireless Lab 开发的一款 AI 驱动的照片与视频编辑应用(2017 年首 发),其核心在于利用深度学习技术实现高度逼真的人脸特征编辑,支持用户对照片中的人脸进行动态特征调 整,包括一键年龄模拟(年轻化/老年化,生成皱纹、白发)、性别转换、表情/发型/发色调整以及专业级智能美 颜(磨皮、祛斑、美白)与 60+创意滤镜(复古、电影感等)。技术流程上,用户上传照片后系统通过云端计算 完成人脸检测、特征提取与效果渲染,仅保留图像 24-48 小时,同时提供本地轻量化模型实现实时预览。目前该 应用在全球获得超百万下载量,并渗透至影视预演、虚拟试妆等垂直领域,2025 年化总收入达 1.5 亿美金,位 列海外收入总榜第二。

Genius:Genius 是由 AI 技术驱动的专业图像编辑工具,其核心功能是通过扩散模型(Diffusion )与 Transformer 架构实现多模态图像处理,支持用户完成艺术风格一键转换、智能背景扩展、高清画质增强、精准 对象移除,以及文本引导的 AI 艺术生成等效果。Genius 主要服务于社交媒体内容创作、专业摄影优化(风格化 二创)及商业视觉设计(产品宣传图生成)等领域,成为平衡创意效率与生成质量的行业标杆工具。

2.2.4 AI 搜索引擎

2025 年,全球 AI 搜索领域依然热门,访问量持续上升,多个龙头产品占据市场主导地位。生成式 AI 技术 的发展提升了信息获取效率,改变了用户与搜索引擎的互动方式。整体访问量显著增加,显示出用户对 AI 搜索 引擎的强烈需求。市场上涌现出多种具备独特功能的 AI 搜索引擎,这些产品通过大语言模型提供更智能和个性 化的搜索体验。同时,AI 搜索引擎在自然语言处理和语义理解方面取得进展,使用户能够通过对话式交互获取 信息。 Perplexity AI:Perplexity AI 是由前 OpenAI 与谷歌工程师 Aravind Srinivas 等团队于近年开发的对话式 AI 搜索引擎,其核心功能是通过多模型集成架构(如 GPT-4、Claude 3、Mistral Large 等) 实现自然语言交互与实时网络搜索的深度融合,支持用户以日常对话形式提出查询,系统通过语义理解+实时网页抓取生成结构化答案, 并自动附权威来源引用链接,同时提供双模式搜索:快速搜索(简洁答案,响应速度<1 秒)以及专业搜索(深 度追问,主动澄清模糊需求)。应用主要覆盖学术研究、商业决策及创意生产,支持文件解析(PDF/PPT 摘要)、 内部知识库集成及团队协作空间,成为挑战传统搜索引擎的 AI 原生信息获取范式代表。

夸克:夸克 AI 搜索是由阿里巴巴集团推出的新一代智能搜索引擎,其以“深度思考引擎”技术为核心,用户 可通过文字、语音或图像提问,系统在毫秒级响应内调用教育、健康、办公等垂类工具生成结构化答案,并凭 借零广告设计与跨终端协同(手机/PC 无缝流转),在 5 月达到 1.5 亿 MAU,连续三月位居全球 AI 产品 MAU 榜前三,成为重塑 AI 搜索市场格局的强大力量。

2.2.5 AI Agent

2025 年成为全球公认的 AI Agent 爆发元年,技术迭代、资本涌入、生态协议普及共同推动临界点突破,强 化学习微调(RFT)驱动智能体从"被动响应"跃升为"主动执行",提升智能体的任务深度与智能交互。 海外巨头以技术+协议+生态驱动 Agent 战略,微软的 Azure AI Foundry 整合 1900+模型,通过 A2A/MCP 协 议实现跨平台智能体调度,企业用户可一键构建供应链管理机器人;谷歌 Gemini 2.5 Pro 深度植入 Gmail/地图,并推出“AI Mode”将搜索框进化场景化服务入口。 国内产品则通过整合轻量化工具链和垂直场景破局:Manus 通用智能体发布,以 GAIA 测试 86.5%通过率 超越 OpenAI 引发资本狂潮,倒逼国内大厂战略转向:字节"扣子"聚焦创作者生态,提供全链路智能体制作支持、 阿里以私域数据为核心打通电商供应链,腾讯整合微信生态打造“社交型”智能体。核心以行业微调和低代码工 具链填补场景空白。 Genspark :Genspark 是最新推出的一款全球首个生产型 MoA(混合 AI)系统的通用 AI 智能体,集成 多个大语言模型、图像生成模型以及翻译工具功能。Genspark 的核心产品 Genspark Super Agent 是全能型 AI 助 手,能自主思考、规划和执行各种任务,如旅行规划、视频内容生成、数据可视化等。基于多智能体混合系统, 结合自建的可靠工具集和数据集,确保高效、准确且可定制化的服务,用智能化解决方案提升用户日常生活的 便利性和效率。在权威 GALA 基准测试中三级任务得分全面领先,尤其在多轮对话规划与跨模态创作场景展现 高可靠性。

2.3 AI+教育

全球科技革命与教育变革共振的浪潮下,人工智能正深度重构教育生态,成为推动教育数字化升级的核 心引擎。教育领域因其场景清晰性、数据丰富性和需求刚性,成为 AI技术落地的黄金赛道。场景上,教学全流 程的可量化特性使 AI 能够无缝嵌入"教、学、评、管"核心环节,通过智能备课系统与自适应学习引擎实现效能 跃升;数据上,教育过程天然沉淀的海量多模态行为数据,为构建学习者全息画像与精准决策提供基础;需求 上,国家战略目标与近亿级终端设备部署形成政策与市场双轮驱动,叠加亿级 K12 群体对优质资源的刚性需求, 共同筑牢技术落地的需求基座。这三者深度耦合,正在催化教育从工具赋能向生态重构的范式升级,铸就兼具 公平价值与千亿规模的新质生产力高地。

AI教育的核心优势体现在: 一、教学模式的范式革新。通过智能算法对学生学习数据的实时挖掘,AI 系统能够精准识别个体学情差异, 动态生成适配学习路径,使传统“千人一面”的教学转向“千人千路”的定制化培养。这种数据驱动的个性化 教学大幅降低了因材施教的边际成本。同时,AI 技术的深度融入重塑了教学边界,依托其强大的多模态内容生 成能力,AI 可动态构建多元课程形态,显著提升学习场景的沉浸感与认知参与度。 二、教育效能的规模化跃升。在课堂教学场景中,多模态数据分析技术可实时捕捉学生参与度与知识掌握 状态,使教师动态调整教学节奏,提升单节课师生互动效率。在课后环节,自动化作业批改系统实现快速反馈, 提升教师批改效率,提升教学效能,解决了教育领域长期存在的“规模扩张”与“个性化服务”难以兼得的矛 盾。 三、教育资源的普惠化革命。通过低成本终端搭载名校课程与虚拟教师服务,降低偏远地区获取优质教育 资源的门槛,显著缩小区域教育鸿沟。AI 技术承担机械性工作后,教师得以转向创造性教学与人文关怀,推动 教育资源从“基础覆盖”向“优质均衡”跃迁。同时,技术通过开源平台与数据共享机制,提升区域间教育资源 配置效率,形成可持续的公平推进路径。 生成式人工智能技术的爆发性发展正驱动 AI+教育进入全新阶段。据 Market Research 预测,教育领域生成 式 AI 的市场规模将从 2022 年的 2.15 亿美元跃升至 2030 年的 27.4 亿美元,年均复合增长率(CAGR)高达 37. 5% 。其中,面向学习者的应用场景(学生端)贡献近半数市场份额,成为产业增长的核心引擎。

“双减”政策叠加政策红利赋能 AI+教育行业发展。2021 年,“双减”政策的出台旨在减轻中小学生过重的 学业负担和校外培训负担,限制学科类培训机构的过度发展,强调教育的公益属性。这一政策导致了行业供给 端的大规模出清,许多中小型培训机构关闭或转型,而行业龙头则开始调整业务方向,转向素质教育、职业教 育以及合规的中高考复读市场。随着政策的边际放松,教育行业迎来了新的发展机遇。2024 年以来,政策导向 从“限制”转向“规范”,不再限制新机构的审批,并鼓励非学科类培训的发展。2024 年《教育强国建设规划纲 要》首次将 “AI 助教覆盖 90%义务教育学校”“建设教育专用大模型” 列为刚性目标,2025 年九部门《加快推 进教育数字化意见》进一步细化 “学科垂直模型研发(数学/思政优先)”、“智能学伴普及”、“算法安全备案制 度” 三大抓手,标志着政策重心从工具应用转向体系重塑。同时,政策支持教培机构参与学校课后服务,为行 业提供了更清晰的发展路径,推动 AI 与教学流程的深度融合,以促进教育公平和质量提升。

2.3.1 教育信息化

教育信息化目前已全面进入 2.0 时代,以技术深度融合、场景全面延伸、服务对象多元化为核心特征,推 动教育从“工具赋能”向“生态重构”跨越。在这一阶段,教学场景不再局限于传统课堂,而是向课后服务、教学 管理、教育决策等全生态延伸,服务对象也从学生和教师扩展至教育管理者和政策制定者。技术应用方面,人 工智能、大数据、云计算、5G等技术逐步取代单一硬件集成,成为教育信息化的智能中枢。例如,AI 学习系统 通过情感计算与生物识别技术,实现个性化教学路径推荐,显著提升学习效率;虚拟现实技术在医学、语言等 领域的应用,使沉浸式教学成为可能。当前行业状态显示,全国中小学互联网接入率已达 100%,99.5%的学校 配备了多媒体教室,慕课数量全球领先,为教育信息化的进一步发展奠定了坚实基础。 此外,教育信息化市场结构持续优化,硬件设备占比约 42%,教育软件占比 30%,IT 服务占比 22%,内容 资源占比 6%,其中软件与服务板块增速显著,2022-2023 年增长率分别达 15%和 18%。政策层面,国家通过《教 育信息化 2.0 行动计划》《教育数字化转型三年行动计划》等战略,推动智慧教育平台体系全覆盖,为行业提供 长期发展保障。

2.3.2 AI 教育软件

AI+教育软件是以人工智能技术为驱动,通过算法分析学情数据、动态定制学习路径,实现教学流程智能化 重构的教育应用程序,是人工智能落地的重要领域。 多邻国(Duolingo)作为全球领先的 AI+教育软件代表,自 2011 年成立以来便致力于通过人工智能技术打 造高效、有趣且易于访问的语言学习平台。其核心设计理念是将学习过程游戏化,通过闯关模式、积分奖励、 排行榜以及虚拟宠物等方式,极大地提升了用户的参与感和学习动力。近年来,多邻国在 AI 方面的投入显著加深,推出了 Duolingo Max订阅服务,这一服务基于 GPT-4 技术,具备“解释答案”、“角色扮演”、“ AI 虚拟视频 陪练”等多项 AI 功能,不仅增强了学习的互动性,也为用户带来了更深层次的知识理解。 在课程内容方面,多邻国充分利用生成式 AI 技术,在 2024 推出了 148 门新的语言课程,相当于传统方式 下 12 年的成果,大幅缩短了内容开发周期,同时降低了人力成本。其用户规模也在持续增长,截至 2025 年第 一季度,其月活跃用户(MAU)已达到 1.302 亿,同比增长 33%,日活跃用户(DAU)为 4660 万,同比增长 49%。付费用户数量同样表现亮眼,达到了 1030 万,同比增长 40%,付费用户占 MAU 的比例为 7.9%。与此同 时,多邻国的盈利能力不断改善,2025 年第一季度总营收达到 2.31 亿美元,同比增长 38%,其中订阅收入同比 增长 45%,达到 1.91 亿美元,成为其主要的盈利来源。公司还计划在未来进一步拓展 AI 的应用范围,涵盖更 多学科领域,如数学、音乐及国际象棋等,同时推出 AR 沉浸式学习功能以提升用户体验。 在全球市场中,多邻国尤其在中国取得了迅猛发展,2025 年第一季度中文学习用户数同比增长 216% ,成 为中国市场增长最快的语言学习平台之一。这一成绩得益于多邻国对 AI 驱动内容本地化和创新营销策略的运 用。展望未来,多邻国的“AI 为先”战略将继续引领其在教育科技领域的创新步伐,同时也面临着来自政策监管、 竞争加剧、用户付费意愿波动等方面的挑战,这些因素都将在其长期发展中起到关键作用。

松鼠 AI作为人工智能教育领域的领先企业,凭借其自主研发的全学科多模态智适应教育大模型,已在行业 内树立起显著的技术壁垒。截至 2025 年 1 月,松鼠 AI 的累计付费订阅学生数达到 98.9 万人,显示出其在市场 推广和用户转化方面的强大能力。此外,松鼠 AI 的线下门店布局也在快速扩展,目前已在全国多个城市开设超 过 3000 家门店,并与超过 6 万家学校建立了合作关系,形成了线上、线下深度融合的教育生态。 此外,松鼠 AI 持续研发投入,持续优化其智适应教育大模型的算法和精度,同时也积极拓展海外市场,与 多个国家和地区客户签约,并发布纯英文教学引擎及适配北美课标的教研产品,为全球化发展奠定基础。这些 举措不仅体现了松鼠 AI 在技术研发上的重视,也反映了其在市场拓展和国际化进程中的战略布局。

2.3.3 教育智能硬件

智能学习设备服务市场是指通过智能化硬件设备为学生提供教育服务的市场,其核心特点是将 AI 技术(如 OCR、AI 大模型等)与教育服务深度融合,以满足学生、家长和教师对个性化教育体验的需求。该市场可分为 两个主要方向:1)To C 市场:主要面向个人终端用户,提供从早教到成人教育的辅助学习服务,目标人群广泛, 市场需求持续增长。2)To B 市场:主要面向学校和教育机构,提供数字校园教学解决方案,受益于政府对教育 信息化的持续投入。 2024 年中国教育智能硬件市场总规模突破 1100 亿元大关,其中消费级产品占据主导地位,占比接近 80%, 而面向学校与教育机构的 B 端产品贡献剩余份额。这种市场结构反映出家庭教育投入的持续升温,特别是在"双 减"政策实施后,家庭场景成为硬件厂商竞逐的主战场。 主流硬件产品已形成清晰的品类矩阵。主要可分为学习机、教育智能手表、翻译工具、早教机、智能教育 机器人、其他(智能作业灯、教育电子纸等),产品品类丰富,且都具备能够与大模型结合的显著特征,是大模 型落地的优质领域。AI 赋能教育智能硬件着眼于学习效率的提升,主要集中于口语练习、人机互动与 AI 辅学 功能。目前,与大模型结合最为紧密的是学习机,通过提供 AI 评测、AI 口语、AI 作文等功能,满足学生个性 化学习需求。

用户需求呈现明显的学段差异特征。调研数据显示,31-45 岁的一二线城市白领家庭构成消费主力,其硬件 配置随子女教育阶段自然演进:学前阶段聚焦早教机与点读笔的组合,小学阶段扩展至学习平板+词典笔+智能 手表的系统方案,而初高中阶段则转向更具工具属性的错题打印机等产品。这种需求阶梯表明,教育硬件的产 品生命周期管理需要与用户成长路径深度绑定。

技术融合将开启新的增长空间。预计到 2025 年,AI 技术对教育硬件市场的贡献率将提升至 18%,脑机接 口与数字孪生技术可能催生下一代产品形态。预计到 2026 年,中国智能学习设备的总市场规模将为 1450 亿元, 2021 年至 2026 年的复合年增长率为 17.1%。在政府持续支持并投入实现校园数字化及智慧课堂升级的背景下, To B 分部于 2017 年至 2021 年经历高速增长,2021 年我国 B 端市场规模达到 330 亿,2026 年有望达到 709 亿。 相比而言,To C 学习市场目标人群较多,且辅助教育涵盖从早教到成人教育,有庞大及持续的需求。2021 年 To C 分部的市场规模为 329 亿元,预计 To C 分部持续稳健增长至 2026 年的 741 亿元。

2.4 AI+金融

金融行业的核心特征包括私有数据难以获取、高商业价值,以及较为领先的数字化基础。 在 ChatGPT 面世 前,金融行业长期占据大数据和 AI 应用的领先地位,这与其丰富独特的数据积累密不可分。金融行业在数字化 转型方面一直处于领先地位,这为大模型的发展提供了良好的基础。金融机构在数据收集、处理和分析方面拥 有成熟的技术和流程,这些都是训练和部署大模型的关键条件。 自 OpenAI 于 2022 年底提出 ChatGPT 后,大语言模型(以下简称大模型)在 C 端快速取得成功,目前月浏 览量超过 17 亿。B 端,在制造业、医疗业、零售业等行业开始了广泛应用。金融领域存在许多 GPT 可以解决并 提升的痛点:如帮助分析师分析投资标的基本面、自动提取研报信息节省研究员时间、宏观新闻分析、成为智 能投资顾问等。2023 年以来,海内外众多金融公司或科技公司都以类 ChatGPT 的大语言模型为基座,投喂自己 的金融数据,训练金融行业大模型或应用。

2.4.1 国外金融大模型新进展

2 . 4.1.1 蚂蚁集团推出百灵大模型

2025 年 3 月,蚂蚁集团首席技术官兼平台技术事业群总裁何征宇领导的 Ling 团队,宣布将推出名为百灵轻 量版(Ling-Lite)和百灵增强版(Ling-Plus)的百灵系列 MoE(混合专家)大语言模型。其中,Ling-Lite 包含 168 亿参数,激活参数为 27.5 亿;Ling-Plus 则包含 2900 亿参数,激活参数达 288 亿。实验表明,两款模型性能 均达到业界领先水平。本论文通过系统性优化方案,为资源受限环境下的人工智能开发提供了效率提升与成本 控制的方法论。作为蚂蚁集团自研的大模型,百灵大模型重点布局在生活服务、金融服务、医疗健康等场景的 应用。后续,蚂蚁百灵大模型 Ling-Plus 和 Ling-Lite 将计划开源。 该模型最大的突破在于提出了一系列创新方法,以提升资源受限环境下 AI 开发的效率与可及性。实验表 明,其 3000 亿参数的 MoE(混合专家)大模型可在使用国产 GPU 的低性能设备上完成高效训练,性能与完全 使用英伟达芯片、同规模的稠密模型及 MoE模型相当。

2 . 4.1.2 东方财富妙想大模型向所有用户开放

3 月 21 日,东方财富宣布妙想大模型已正式向所有用户开放,并全面登陆东方财富 APP,开启智能投资时 代。妙想大模型于 2024 年 1 月推出,经过一年时间打磨,基于妙想模型之上的妙想助理面向所有用户推出。 数据层面,秒想训练数据来源于目前国内高质量金融数据库。当前,妙想已覆盖 2 亿+的资讯舆情,4 亿+ 的宏观数据、6 亿+的行业数据、10 亿+的企业数据、百亿+的市场数据,以及百亿+的股吧、财富号等内容,涵 盖上万种数据品类,从根本上保证数据来源的准确性、即时性、可靠性。模型规模层面,基于过往并将 NLP、 CV、Ranking 等多种 AI 技术应用于 50 多个业务场景的历史储备,妙想系列模型灵活组合几十亿到上干亿参数 规模不等的大、小模型族群,可面向应用场景选择最佳的模型方案。 功能层面,晨会信息整理(既可以对市场行情、宏观经济、政策变化等重点类目进行常态化跟踪,也可以 辨别并筛选出增量信息中对行业有重要影响力的内容,按照层次分明、重点突出的结构进行呈现),路演纪要 转化,研报信息提取等均属于妙想核心功能。与市面已有大模型不同,基于金融行业投研人员对于采用的信息 有准确性和信源权威性的双重要求。妙想将传统金融终端与大模型技术的双重专业禀赋进行了有机结合,有效 解决了用户的“信任危机”。在信息采选源头,妙想构建了专业度分级机制,可以识别并优先采纳更可靠、更 符合投研偏好的信源;在信息获取过程中,妙想实现了多信源一并获取并交叉验证,让同类数据能够在时间、 属性、单位等颗粒度上相互支持、补充和修正;在回答时,妙想能够持续对回答进行反思并不断完善,效果完 整度更高、细节更丰富,以此来实现实际价值创造。

2.5 AI+工业

一直以来,工业 AI的应用就落后于其他领域,原因是工业领域更多的依赖对行业 know-how的经验理解, 而不是单纯从数据中挖掘规律。但随着 AI 通用性和专业性两方面的不断加强,越来越多的工业 know-how 被 计算机所理解,甚至表现出更好的性能。例如上世纪 60 年代专家系统诞生与 80 年代的工业领域应用间隔近 20 年,统计机器学习的工业领域应用滞后周期基本在 10 年左右,而深度学习、生成对抗网络等新技术于 2012 年 后在通用领域开展应用,不足 4 年便产生了工业领域探索实例。总体来看,由于人工智能技术可用性增强以及 工业信息化水平提升,通用技术的工业落地间隔由 20 年逐步缩短至小于 5 年。加之工业领域的关键技术如数字 孪生等本身就与深度学习密切相关,我们认为,伴随 ChatGPT 带来的通用 AI 大模型突破,工业领域 A I 应用将 迎来快速落地和发展。

2.5.1 AI+工业软件

工业软件是工业创新知识长期积累、沉淀并在应用中迭代进化的软件产物。工业软件的根基仍然是工业行业本身,有赖于正向创新和行业创新知识的积累,是一个长期系统工程。任何工业知识都必须先形成完整的体 系,搭建出知识库和模型库,并在实践中反复应用、更改,与工程紧密结合并不断更新迭代,才有可能形成工 业软件。因此,工业软件是工业创新知识的载体,依靠软件化这一关键过程,通过强大的软件工程能力才得以 实现。软件平台与架构将直接决定工业软件产品的生命力。

2 .5.1.1 海外进展

AI 与工业软件结合是产业新趋势,在研发设计,生产控制,经营管理和嵌入式软件四大类中,AI 与研发 设计的合作主要在于交互与预设计,与生产控制的结合主要在于参数修改,与经营管理的结合主要在智能文本 生成,与嵌入式软件的结合则主要在代码自动编写上。 在传统 CAD 草图绘制过程中,用户需要逐步明确几何约束(如平行、垂直、同心等)及结构关系,手动 输入大量命令,草图绘制效率较低,且对操作熟练度要求较高。为提升草图建模效率与智能化水平,Siemens NX 和 Solid Edge 在近年持续强化基于 AI 的草图智能绘制与自动化功能。 2025 年,Siemens NX 和 Solid Edge 的草图绘制引擎集成了更高精度的 AI 预测模块。该模块基于深度学 习算法和用户历史操作数据,实时推断用户的绘制意图,智能推荐下一步绘图命令,支持基于上下文自动生成 初步草图形态。同时,AI 能够在用户绘制过程中自动判定并施加几何关系(如共线、同心、切线等),大幅减 少显式手动定义约束的操作步骤。同时,AI 模块通过分析用户提供的边界条件(如加载、固定支撑、材料属性) 和设计目标(如重量最小化、刚度最大化),基于 AI 拓扑生成算法快速生成多种可行拓扑形态。该过程基于 复杂有限元分析结果的智能化数据驱动,显著加快概念方案到结构性能验证的迭代效率。另外,新增的 Sketch Checker 模块具备高效的草图完整性检测功能。该模块实时监控草图几何元素和约束状态,自动识别并定位存 在的尺寸冗余、未定义约束、封闭性缺陷等常见问题,并提供一键式修正建议。通过该模块,草图在生成阶段 即可实现高一致性与可制造性,显著降低后续建模阶段的返工率。2025 年,NX X 和 Solid Edge X 实现了全面 云化。AI 驱动的草图绘制及修正功能被部署至云端,用户可直接在浏览器中使用,无需依赖本地高性能硬件。 云化架构支持多用户并行编辑、实时版本管理和跨地域协作,提供高度可扩展的工业级智能化 CAD 平台。

SAP 的 AI 助手 Joule 是一款深度集成在 SAP ERP 系统中的智能化工具。Joule 能够通过自然语言处理 (NLP)技术,理解用户提出的问题和意图,自动分析 SAP 中海量数据,并结合深度学习模型,形成最优的解 决方案。比如,它可以自动提取关键业务指标、生成财务和生产报告,甚至能协助审批等决策环节。 Joule 还与 SAP 的核心业务产品(如 S/4HANA、SuccessFactors、Ariba)深度结合,形成了一个面向全场 景的智能代理网络——Joule Everywhere。这意味着无论是财务数据、供应链优化,还是 HR 业务等模块,Joule 都可以跨系统自动获取和处理数据,提供一站式的智能化服务。在 2025 年,Joule Agents 能够无缝集成财务、 供应链、生产和人力等多模块,支持从数据提取到任务自动化执行,打破了传统 ERP 模块割裂的“数据孤岛”问 题。基于自然语言模型,Joule 可以像“智能助理”一样,直接理解用户指令,自动生成相应的操作或报告,避免 了人工逐步操作和信息拆解的繁琐流程,通过深度语义理解和 AI 自动推荐,用户只需用自然语言对话,就能 在复杂的报表和数据中快速定位关键信息,显著加快决策速度。依托 SAP Knowledge Graph 和 Business Data Cloud,Joule 将所有 AI 功能和数据分析放在云端,支持多语言、多区域、跨平台的无缝使用。另外,Joule 还 推出 Joule for Developers,支持 AI 辅助代码自动化生成、自然语言查询代码、智能文档编制等功能。这意味 着不仅业务流程智能化,IT 开发本身也实现了自动化。

2.5.2 AI+机器视觉&机器人

2 .5.2.1 A I+机器视觉

工业机器视觉是软硬件一体化的集成系统,它的目的是代替人眼对被测物进行观察和判断。从组成上,机 器视觉系统硬件设备主要包括光源、镜头、相机等,软件主要包括传统的数字图像处理算法和基于深度学习的 图像处理算法。系统工作时首先依靠硬件系统将外界图像捕捉并转换成数字信号反馈给计算机,如下图深灰色 方块所示过程,然后依靠软件算法对数字图像信号进行处理,如下图中灰色方块所示过程。工业机器视觉在识 别的精确度、速度、客观性、可靠性、工作效率、工作环境要求、数据价值方面都优于人眼。

2024 年中国机器视觉市场规模预计为 181.47 亿元,其中 2D 视觉市场规模约 153.32 亿元,3D 视觉市场规 模约 28.15 亿元。尽管整体市场出现小幅下滑,3D 视觉市场仍实现了 19.20%的同比增长。2025 年,机器视觉 市场预计将突破 210 亿元,2028 年达到 385 亿元,2024-2028 年复合增长率为 20%。尤其是 3D 视觉市场,预计 2028 年市场规模将超 70 亿元,2024-2028 年复合增速达 25%。

过去几年,AI 技术在工业质检领域的应用逐渐从传统的机器视觉检测发展到深度学习驱动的智能质检系统。 这些系统能够自动识别产品缺陷、分析趋势,并适应生产线的变化,实现高效、精准的质量控制。2025 年 AI 技术在工业质检中的突破包括深度学习与视觉检测的结合、边缘计算和 AI 的融合、少样本学习的应用,以及 自然语言处理在交互中的创新,这些技术发展都使得工业质检变得更高效、更精准、更智能。 在工业异常检测领域,传统方法往往仅依赖单一视觉信号进行检测,难以处理复杂场景中的多种类型异常。 此外,很多现有模型在多模态数据(如图像和领域知识)融合方面仍存在较大挑战,限制了其在实际生产环境中的应用。 AnomalyR1 模型于 2025 年提出,它是基于多模态视觉语言模型(VLM-R1)和 GRPO 优化策略的 工业异常检测模型。该模型的主要创新点在于,利用多模态数据的融合,即将图像数据与领域知识结合,增强 了模型的推理能力,从而能够更准确地识别和定位异常。 AnomalyR1 模型基于多模态大语言模型(MLLM)和强化学习中的 Group Relative Policy Optimization (GRPO) 进行了增强。其主要目的是提高工业异常检测任务中的推理能力和异常图像定位精度。 其核心架构包 括:1)采用深度卷积神经网络(CNN)进行特征提取,能够捕捉到细微的图像差异,提升异常检测的准确性。 2)AnomalyR1 采用了少样本学习技术,使其能够在仅有极少标注数据的情况下,依然能够有效进行异常检测任 务。模型通过学习少量的异常样本,能对全新的工业环境中的异常情况进行预测。 3)GRPO 被应用于模型的 训练过程中,通过群体策略优化来优化多模态数据的集成,并提高模型对异常检测的精准度。每个图像输入都 会经过一系列的策略生成过程,从而实现对异常的精确定位。 在多个工业异常检测任务中,AnomalyR1 表现出 色。尤其在 MVTec-AD 数据集和 PCB Bank 数据集上,AnomalyR1 刷新了传统方法的检测精度,准确率提高了 8%-10%。此外,模型在检测速度上也有显著提高,能够在不到 30 秒内处理并输出异常定位结果。

传统的工业异常检测方法往往依赖大量的标注数据进行训练,这在许多工业应用中是不可行的,尤其是在 少样本或零样本的情况下,模型的性能急剧下降。以往的大部分方法都是通过经典的生成对抗网络(GAN)或 者自编码器(AE)生成异常样本,然而,这些方法通常在处理复杂异常时难以提供高质量的生成图像,尤其在 图像细节和视觉一致性方面表现较差。 DualAnoDiff 是腾讯优图实验室的研究团队于 2025 年提出的基于扩散模 型的少样本异常图像生成模型,旨在解决少样本训练数据不足的问题。该模型采用了一种双重扩散模型(Dual Diffusion Model),其核心思想是通过扩散过程生成异常图像,以补充传统数据集中异常样本的缺乏,从而提升 模型的异常检测能力。 DualAnoDiff 的核心创新在于引入了双重扩散生成机制,该机制能够生成高质量且多样的异常样本,从而 增强了模型的检测能力。该模型主要由以下几部分组成:1)模型通过两个扩散路径生成异常图像。第一个路径 生成与正常图像区域对应的异常部分,第二个路径生成整个异常图像。每个生成过程都经过扩散模型的反向优 化,使得生成的异常图像更加真实、具有多样性。2) DualAnoDiff 采用了背景补偿模块来修复生成图像中的背 景失真。通过对异常区域的精细调整,确保生成的异常图像既保持与正常图像的细节一致性,又能有效突出异 常部分。 DualAnoDiff 在多个工业异常检测任务中表现出色,尤其在 MVTec-AD 数据集上,相比传统的生成对抗网络(GAN)模型,DualAnoDiff 生成了更加多样且高质量的异常图像。通过扩散模型的双重生成路径,模型 能够生成更加贴近真实的异常样本,极大地提升了异常检测的精度和鲁棒性。

2025 年 5 月,凌云光发布了一套面向印刷包装行业的高性能 AI 视觉检测系统 VP8 (VisionPrint8)。它在硬 件层面结合了 8K 工业相机和高精度光源方案,软件层面则基于凌云光自研的 VisionWARE 框架 以及 通用 工业视觉大模型 F.Brain,具备端到端的深度学习能力。 VP8 系统搭载 8K 线扫相机,能够以高达 450 m/min 的生产线速度,进行连续检测,捕捉极其细微的印刷缺陷。得益于 F.Brain 大模型,VP8 在印刷缺陷识别上不 仅依赖传统灰度/彩色特征算法,而是融合了深度卷积特征、注意力机制以及自研的多层特征金字塔(FP N)结 构,精准度大幅度提升。其算法框架 VisionWARE 优化了多线程并行推理,单帧检测响应时间低至 8 ms,可 在生产线上实现毫秒级检测、实时剔除次品。 F.Brain 具备更好的领域迁移与少样本适应能力,使得 VP8 能在 实际生产线的复杂噪声、光线干扰下,依然保持高准确率和低误报率。 凌云光官方资料及客户现场测试结果显示,VP8 已在多个印刷包装场景落地,例如:彩盒、软包装薄膜、 标签印刷、烟包等。在这些实际应用中,VP8 通过 AI 智能瑕疵检测,检测效率相较传统方案提升 400% 以上, 且大幅度降低了误报率和返工率。例如,在彩盒生产线上,VP8 的智能套印监测功能可精确识别多色印刷品的 错印问题;在软包装行业,其微米级检测精度确保了高速薄膜材料中的针孔或划痕等缺陷的实时检测与追踪。

2 . 5.2.2 焊接机器人

焊接机器人是一种能够自动执行焊接(包括切割和喷涂)任务的工业机器人。根据焊接方式、结构形式、 负载能力、工作范围等因素的不同,焊接机器人业有不同种类。焊接机器人广泛应用于钢结构、航空、造船、 电子、机械等行业,可以提高焊接质量、效率和安全性,涉及的技术包括焊接电源技术、传感器技术、离线编 程技术、智能控制技术、仿真技术等。 全球焊接机器人市场:2022 年全球焊接机器人市场规模达 626 亿元,销量 30.4 万台,由此推算平均每台售 价约为 2000 万元,据《中国焊接机器人行业发展前景预测与投资战略规划分析报告》预测,全球焊接机器人市 场规模在 2025 年达 43.9 万台,折合 904 亿元。据 TechNavio 预测,其中弧焊机器人市场规模在 2025 至 2029 年 间将达到 62 亿元。据 Nexus Group Report 预测,激光焊接机器人市场到 2033 年有望增长到 467 亿元。 国内焊接机器人市场:2022 年中国焊接机器人市场规模达 248 亿元,占全球市场规模比例约 40%,由上述 数据推算 2025 年国内焊接机器人市场规模约 358 亿元。

柏楚电子智能焊接底层技术与激光切割工艺核心技术共通:除焊接工艺之外,与激光切割控制中的视觉识 别工件、排样、工艺路径规划、运动控制所涉及的核心技术知识领域是相同的。具体技术方面,焊接与激光切 割在 CAD 技术、CAM 技术、NC 技术、传感器技术和硬件设计在智能制造和自动化领域存在共通性。

FSWELD 是柏楚电子推出的智能焊接控制系统,也是柏楚电子在 AI+机器人领域的一项创新突破,通过深 度集成 AI 技术、机器视觉技术、云计算与数据分析,解决了传统焊接机器人在精度、自动化和灵活性方面的不 足。FSWELD 系统利用机器视觉技术,结合高精度的摄像头和图像识别技术,实时扫描工件的位置和形状,从 而精确控制焊接路径。 AI 算法可以实时调整焊接路径,确保焊接过程中的每个点都在最佳位置,从而提高焊接精度和效率。另外, 系统能够通过 AI 算法自动检测焊接过程中的温度、压力、速度等参数,并根据实时数据进行自动调节。无论工 件的形状和材质如何变化,焊接过程都能自动适应并调整到最优的焊接状态,保证焊接质量。通过深度学习算 法,FSWELD 能够分析大量历史数据和实时传感器数据,预测焊接过程中的潜在问题并进行优化。AI 模型能够 从过去的焊接案例中学习,并根据不同的生产环境自动调整焊接参数,最大限度减少误差。此外,该系统也集 成了高效的数据采集与云计算技术,在焊接过程中实时收集并分析数据,AI 系统对焊接过程中的异常进行快速 检测和反馈。这使得焊接质量能够得到全面监控,及时发现并纠正问题。

柏楚电子的核心优势在于其完整、智能化的激光加工和焊接控制解决方案,尤其体现在型钢、重管材切割 以及高精度焊接自动化方面。旗下 FSCUT 系列激光切割控制系统(如 FSCUT5000、6000、8000)具备总线控 制和多卡盘切割功能,能够轻松应对桥梁钢结构、铁塔构件及工程机械中的厚板、异形管材等复杂件的高效切 割,且其±0.05 mm 级的切割精度保证了下游装配的高度契合和稳定性。配合 TubesT3D 三维套料软件,可进一 步提升材料利用率和自动化程度,减少人工编程时间。另一方面,FSW ELD 系列智能焊接控制系统则通过免示 教焊接和焊缝视觉追踪等技术,专为桥梁拼装、油箱储罐等大型构件的焊接提供灵活、稳定的解决方案。搭配 S-Motion 智能运动控制平台,柏楚电子的整体系统形成了从切割到焊接、从型材到板材的全流程数字化闭环, 广泛服务于桥梁、铁塔、石化储罐及工程机械等高标准制造领域,助力客户在智能化升级与降本增效方面实现 全面突破。 柏楚电子是激光切割控制系统龙头企业,公司主营业务系为各类激光切割设备制造商提供以激光切割控制 系统为核心的各类自动化产品。中低功率切割控制系统技术达到国际领先水平,国内市占率约 60%,稳居第一; 高功率切割控制系统目前国产替代水平较低,公司保持国内第一的市场地位。公司横向拓展智能焊接、精密加 工业务。 天眼智能余料再利用解决方案是柏楚电子在激光切割领域的最新创新之一,旨在提高生产过程中的效率, 并减少废料和资源浪费。这个系统的核心是通过高精度的激光扫描和智能分析系统来检测、分类并处理剩余的 废料,从而优化生产线并最大化原材料的使用。 天眼系统采用了 AI 视觉和深度学习技术,在扫描工作区域时,自动识别并提取废料信息。这一技术突破使 得系统能够通过深度学习算法将不同种类的废料和不规则形态的物料进行有效区分,避免人工操作带来的误差 和效率低下的问题。天眼系统能够准确地分析废料的图形与特征,将其数据上传至云端进行深度分析和学习, 自动生成合理的废料使用方案,极大地提升了自动化程度。另外,天眼系统通过智能算法自动进行一键飞排并 且生成余料切割图,优化切割路径和顺序,实现自动化的精准切割操作。随后其自动上传至云端进行进一步处 理的功能,能及时推送最佳切割方案,减少传统人工干预的环节,提升工作效率。

天眼系统支持数据通过云端进行传输和处理,结合云计算的强大处理能力,使得设备能够在不同地点、不 同生产线之间实现智能连接与协作。这不仅使得生产过程更加智能化,同时也为远程监控和实时数据分析提供 了强有力的支持。随着 5G技术的普及,天眼系统能够实现更快速的数据传输,使得智能切割设备能够及时响应 和调整,确保生产线的高效运行。

2.6 AI+军事

人工智能逐渐成为公认的改变今日世界并影响未来全球格局的决定性力量,既直接表现在人工智能技术对 经济、社会乃至军事领域的直接变革,也表现在人工智能技术对国际战略、科技竞争、大国博弈等方面的长期 间接影响。目前世界各国均在不同军种、不同层级探索利用不同种类的 AI 工具提升战场表现,其中生成式 AI 利用海量数据库辅助战场态势感知和决策成为当下新焦点。

2.6.1 AI 战场使用场景概括

1)自主作战系统。AI 驱动的无人系统(如无人机、无人地面车辆等)可以在战场上执行侦察、打击、后勤 补给等任务,减少人类兵员的直接暴露风险。它们通过自我学习和适应环境,能够在复杂条件下自主作战,且 响应速度远超人类。美国军方在多个项目中使用了自主无人机(如 MQ-9 Reaper 无人机和 X-47B 无人战斗机), 这些无人机不仅执行侦察任务,还能够执行打击任务。美国还在研发自适应自主无人地面车辆(UGVs),它们 能在没有人类操作的情况下执行巡逻、侦察等任务。 2)态势感知和实时决策。战场态势瞬息万变,AI 能够通过整合来自多个传感器(如卫星图像、无人机数 据、地面侦察等)的信息,快速分析并提供实时的战场态势感知。它能够通过模式识别和数据分析,帮助指挥 官做出更精准的决策,并优化资源分配。AI 通过实时处理传感器数据,能够自动识别和分类战场上的目标,提 高精确打击能力。尤其是在复杂环境下,AI 能够从海量的目标信息中迅速筛选出高价值目标,优化攻击时机和 资源使用。美国军方目前使用 AI 驱动的目标识别和精准打击技术,如“MAVEN”,它通过分析图像数据来帮助 识别战场上的关键目标。该系统主要应用于无人机群的打击任务,能够自动锁定并攻击敌方高价值目标。3)非理想环境作业。人工智能技术可以在某些特殊的空间发挥作用,例如,人不能长期存在的核辐射、高 温高湿、缺氧等恶劣环境,人在这些非理想环境中作业存在难以克服的困难和危险,借助人工智能技术,可以 提高作业效率和安全性,例如扫雷机器人等。 4)情报分析与预测。AI 能够快速从大量的开源情报、监视数据中提取有价值的信息,并进行趋势预测。通 过模式识别和数据挖掘,AI 能够预测敌方的行为、战术变化以及可能的作战区域,为决策提供有力支持。美国 国防高级研究计划局(DARPA)已经开发了多种基于 AI 的情报分析系统,能够从社交媒体、通信数据和卫星 图像中提取信息,预测敌方动向和行动意图,提供决策支持。

2.6.2 Anduril Pulsar 电子战系统:对抗中小型无人机的防御系统

Anduril Industries 成立于 2017 年,由 Oculus VR 创始人 Palmer Luckey 创办,致力于开发先进的人工智能 (AI)驱动的军事技术。公司以其自主系统、传感器融合和 AI 平台而闻名,特别是在反无人机、电子战、指挥 控制和扩展现实(XR)领域。 Anduril 的 AI 驱动系统目前有几个方面组成。其核心产品是 Lattice 平台,这是一个开放的 AI 操作系统, 作为指挥控制和任务自主的核心,Lattice 支持多种传感器和平台的集成,实现数据融合和实时决策支持。在反 无人机领域,Anduril 在 2024 年推出的的 Pulsar 系统可以利用 AI 快速识别和应对当前和未来的威胁,特别是小 型和中型无人机。

Pulsar 系统能够通过 AI 工具快速识别新威胁,并制定相应的防御措施,显著压缩响应时间。当一个系统识 别到新的威胁信号后,会在数小时内进行分析,并将应对策略推送到其他系统,实现快速共享和协同应对。系 统采用射频机器学习(RFML)技术,能够实时感知电磁频谱中的活动,并进行智能干扰。这种能力使得 Puls ar 能够在复杂的电磁环境中有效应对多种威胁,包括小型和中型无人机。2025 年 4 月,Anduril 发布了 Puls ar-L (Pulsar 轻型版),旨在提供高性能的电磁效应,其可以在两分钟内完成部署,并且提供空中和地面两种配置, 适用于快速变化的战场环境。另外系统具备自主操作能力,用户无需专业技术培训即可使用,降低了操作门槛。 Pulsar 系统与 Anduril 的 Lattice 平台紧密集成,形成一个开放架构的指挥控制系统。这种集成使得多个 Puls ar 系 统能够协同工作,实现全域覆盖和协同效应。

此外,目前 Anduril 与 OpenAI、Meta、Microsoft 均有仍在进行的研发项目,分别在反无人机系统、扩展现 实(XR)和 AI 技术结合的辅助情报决策系统以及集合增强现实(AR)和虚拟现实(VR)技术提升作战人员超 越视距感知能力的可穿戴作战系统领域进行深度合作。2024 至 2025 年间,通过发布新型电子战系统、与 A I 公 司的战略合作以及收购通信公司,Anduril 不断推动军事 AI 技术的发展和应用。这些进展不仅提升了美军的作 战能力,也为未来的军事 AI 技术奠定了基础。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)