最近大家一定听说过这么一句话:AI的尽头是能源!

虽然这个消息最终被澄清,但AI的耗电问题已然受到市场关注。AI究竟有多耗电呢?我们一起来看看。

耗电量惊人,ChatGPT已经消耗了3.3万户家庭的能源

每天电费超7.35万美元,约合53万人民币。《纽约客》杂志报道称,据国外研究机构的报告,ChatGPT每天要响应大约2亿个请求,在此过程中消耗超过50万度电力(美国商业用电一度约为0.147美元50万度电相当于一天花费7.35万美元)。而每一个美国家庭的平均用电量只有29度,也就是说,ChatGPT每天用电量相当于1.7万个美国家庭的用电量。近日《自然》杂志的一篇文章进一步指出,一项评估显示,ChatGPT已经消耗了3.3万户家庭的能源。生成式AI驱动的搜索消耗的能源是传统网络搜索的四到五倍。

AI究竟多耗电? 最近大家一定听说过这么一句话:AI的尽头是能源!虽然这个消息最终被澄清,但AI的耗电问题已然受到市场关注。AI究竟有多耗...此外,荷兰国家银行数据科学家亚历克斯•德弗里斯(Alex de Vries)通过英伟达、OpenAI、谷歌等公开数据进行的估计,到2027年,整个人工智能行业每年将消耗85至134太瓦时(1太瓦时=10亿千瓦时)的电力。

不仅耗电还耗水,AI的耗水量也让人瞠目结舌

每问ChatGPT 5到50个提示或问题,就会消耗500毫升的水。由于算力设备的冷却需求,AI的耗水量也让人瞠目结舌。美国加州大学河滨分校的研究员任少雷任少雷的团队估计,每问ChatGPT 5到50个提示或问题时,它就会消耗500毫升的水。

工信部数据显示,2022年我国基础设施算力规模达到180EFlops(每秒百亿亿次浮点运算次数),数据中心耗电量达到2700亿千瓦时,占全社会用电量约3%。预计到2025年,我国算力规模将超过300EFlops,智能算力占比达到35%,数据中心耗电量达到3500亿千瓦时。根据《绿色算力白皮书(2023)》预测,到2030年我国数据中心耗电量将达到5900亿千瓦时。

图:2018-2025年中国数据中心耗电量情况

马斯克近期谈到AI行业时也指出:“一年前,短缺的是芯片,神经网络芯片,下一个短缺将是电力基础设施(如变压器)。你得给这些东西提供能量。”

因此,在许多业内人士看来,随着生成式AI发展,以风光和储能为代表的新能源市场将面对着无比广阔的空间。日前,在3月10、11日于杭州召开的第十四届中国国际储能大会上,国家能源局科技司原副司长表示,截至2023年底,我国风光发电装机容量达到10.5亿千瓦,风光发电进一步提速,2023年新增装机2.92亿千瓦,预计到2024年底,风光发电总装机容量有望突破双碳战略确定的2030年发展目标——12亿干瓦。

近年来,国际国内已经形成基本共识,加快发展新型储能,既是支撑构建新型电力系统,消纳高比例可再生能源的客观需要,也是国际装备制造业竞争的热点领域。景顺长城创业50ETF,其第一大成分行业即为电力设备与新能源,其中包含多家新能源行业龙头企业,球友们不妨将$创业50ETF(SZ159682)$加入自选,关注新能源行业发展。

景顺长城创业板50交易型开放式指数证券投资基金特有风险提示

创业50ETF及其联接基金晨星风险评级为中高风险(R4),适合积极型、激进型投资者。