生成式人工智能(AIGC)热潮已持续近2年,一些头部科技公司正在证明人工智能可以成为真正的收入来源,但它同时也是一个巨大的资金陷阱。

微软公司在最新季度财报中报告称,由于企业客户在其 AI 服务上的支出增加,云计算收入大幅增长。为了实现这些早期收益,类似微软已投入数十亿甚至百亿美元开发人工智能公司不在少数——并且他们计划进一步加大投资。

4 月微软表示,其在最近一个季度的资本支出为 140 亿美元,预计这些成本将“大幅增加”,部分原因是人工智能基础设施投资。这比去年同期增长了 79%。

投入这么多的资金究竟用在了哪里?

一、模型变得越来越大

模型是个巨兽,而且越来越大



当今最著名的人工智能产品,包括 OpenAI 的 ChatGPT,都由大型语言模型提供支持——这些系统被输入大量数据,包括书籍、文章和在线评论,以便对用户的查询做出最佳响应。许多领先的人工智能公司都认为,通往更智能的人工智能的道路——甚至胜过人类——就是让这些大型语言模型变得更大。

仅以ChatGPT为例,从V3到4o,模型参数规模就从千亿上升到万亿,一年多上升一个数量级。

研发一个人工智能技术需要多少钱? 训练模型还需要获取更多数据、更多计算能力,还需要更长时间。第一批一批人工智能模型的训练成本约为 1 亿美元。目前正在训练的模型的成本接近 10 亿美元,预计2025 年和 2026 年,成本将达到 50 亿美元或 100 亿美元。

二、芯片和计算成本

模型是个吞金兽,基本就是在烧钱



大部分成本都与芯片有关。为了训练大型语言模型,AI 公司依靠能够高速处理大量数据的图形处理单元 (GPU)。这些芯片不仅供应不足,而且价格极其昂贵,其中最尖端的功能主要由一家公司制造:Nvidia Corp。

Nvidia 的 H100 图形芯片是训练 AI 模型的黄金标准,其售价估计为 30,000 美元,一些经销商的报价是这个价格的几倍。大型科技公司需要大量这样的芯片。Meta扎克伯格此前表示,他的公司计划在今年年底前购买 350,000 块 H100 芯片,以支持其 AI 研究工作。即使他获得批量购买折扣,这也很容易达到数十亿美元。

公司也可以不购买芯片,但借用这些芯片的成本也很高。例如:亚马逊公司的云部门将以每小时约 6 美元的价格向客户租用一组由英特尔制造的大型主力处理器。相比之下,一组 Nvidia H100 芯片的成本接近每小时 100 美元。Nvidia 表示,训练一个 1.8 万亿参数的 AI 模型需要大约 2,000 个Blackwell GPU。

三、数据中心

模型是个佛爷,得好生供养着



购买这些芯片的公司需要有个地方放置它们。Meta 和最大的云计算公司(亚马逊、微软和谷歌)以及其他计算能力出租提供商正在竞相建造新的服务器群。这些数据中心往往是定制的。它们可以容纳硬盘架、处理器、冷却系统以及成堆的电气设备和备用发电机。

目前全球有7,000 多个数据中心,包括处于不同开发阶段的设施,比 2015 年的 3,600 个有所增加。这些设施的规模也显著扩大。这些全球数据中心建筑的平均面积现在为 412,000 平方英尺,自 2010 年以来增长了近五倍。

四、版权和人才

模型是个灵兽,不但要吞丹,还要专属高级驯兽师。



虽然芯片和数据中心占据了成本的大部分,但一些人工智能公司也花费了数百万美元从出版商那里获得数据许可。OpenAI已与几家欧洲出版商达成协议,将他们的新闻内容整合到 ChatGPT 中,并训练其人工智能模型。

此前谷歌已达成一项价值 6000 万美元的协议,从 Reddit 获得数据许可。Meta 员工据称正在讨论收购图书出版商西蒙舒斯特。

另外科技公司也陷入了一场激烈的人工智能人才争夺战。去年某个时候,Netflix 公司曾招聘人工智能产品经理,年薪高达 90 万美元。