我们是否在6倍算力浪潮到来前过早看衰了AI
摘要
当前关于AI扩展触顶、投资回报不足的质疑,实际上是在评判基于旧硬件训练的模型。摩根士丹利数据显示,全球AI芯片产能将从2023年的11.7万片晶圆增至2026年的100万片,算力累计增长约6倍。由于芯片安装和训练存在显著滞后,Opus 4.5等突破性模型仅是2024年算力的产物,真正的算力洪流尚未完成首轮训练。
内容框架与概述
文章首先通过TSMC的CoWoS晶圆分配数据,展示了AI芯片产能从2023年到2026年的爆发式增长。作者将晶圆数转换为exaFLOPs算力单位,揭示全球累计AI算力将增长近6倍,这一基础设施建设规模在人类历史上前所未有。
随后文章分析了算力转化为模型能力的时间滞后问题。芯片从生产到部署需要数月,加上液冷系统故障、电力容量限制等瓶颈,以及长达半年的训练周期,当前模型实际反映的是约12个月前的算力水平。
最后作者以Opus 4.5和Gemini 3为例,指出这些展现出博士级工程能力的模型仅是2024年约36 exaFLOPs算力的成果。2025-2026年即将上线的100-220+ exaFLOPs算力尚未完成任何训练,若扩展趋势延续至2030年,全球将进入zettaFLOP时代,届时AI能力的飞跃可能远超当前想象。
核心概念及解读
CoWoS封装技术:台积电的2.5D芯片封装技术,是当前几乎所有顶级AI芯片的制造基础,其产能直接反映AI硬件供应规模。
exaFLOPs与zettaFLOPs:衡量算力的单位,分别为10的18次方和21次方浮点运算,文章预测2030年全球AI算力将达到zettaFLOP级别。
算力滞后效应:从芯片生产到模型发布存在约12个月延迟,导致当前模型能力实际反映的是过去的算力投入。
推理与训练的算力分配:随着AI产品商业化,更多算力将用于服务用户的推理任务,但训练仍占据巨额支出。
扩展法则争议:关于AI能力是否随算力增长持续提升的辩论,作者认为即将到来的算力洪流将使这一争论更加激烈。
原文信息
| 字段 | 内容 |
|---|---|
| 原文 | Are we dismissing AI spend before the 6x lands? |
| 作者 | Martin Alderson |
| 发表日期 | 2025-12-22 |
此摘要卡片由 AI 自动生成