DeepMind CEO 发出警告:内存短缺正在成为 AI 的'咽喉要道'——HBM 吞噬 3 倍晶圆产能、三大厂商产能售罄、消费级内存价格暴涨 100%,AI 算力饥渴正在蚕食整个科技产业

📌 一句话总结:DeepMind CEO Hassabis 警告内存短缺正在成为 AI 发展的「咽喉要道」——HBM 芯片吞噬 3 倍晶圆产能、三大厂商 2026 年产能全部售罄、消费级内存价格暴涨 50-100%,AI 的算力饥渴正在蚕食整个科技产业的供应链。

2026年2月24日 · 深度解读 · 阅读时间约 8 分钟

Hassabis 的警告:AI 正在撞上物理墙

Google DeepMind CEO Demis Hassabis 近日在接受 CNBC 采访时发出了一个不同寻常的警告:全球内存芯片短缺可能拖慢 AI 的高速发展。

「你需要大量芯片才能在足够大的规模上实验新想法,才能真正看到它们是否可行。」
— Demis Hassabis,Google DeepMind CEO,Business Insider

Hassabis 甚至透露,Google 已经受到了实际约束——无法完全满足 Gemini 模型的需求。这不是一个小公司的抱怨,而是全球最大 AI 基础设施投资者之一在说:我们的钱花不出去,因为芯片不够。

为什么是内存,不是 GPU?

过去两年,AI 基础设施的讨论焦点一直是 GPU——Nvidia 的 H100、B200 供不应求。但 2026 年,瓶颈悄然转移到了一个更基础的组件:内存芯片,特别是高带宽内存(HBM)。

理解这个问题需要一个简单的类比:把晶圆产能想象成农田。你可以种小麦(普通 DRAM),也可以种兰花(HBM)。兰花卖价是小麦的十倍,但需要占用三倍的土地面积。当所有农民都去种兰花时,小麦就没人种了。

具体数据:

指标 数据
HBM 占 DRAM 晶圆产出比例 2026 年 23%(2025 年为 19%)
HBM 每比特消耗晶圆面积 约为标准 DDR5 的 300%
SK Hynix 2026 年产能 DRAM 和 NAND 全年产能已全部售罄
Micron HBM 供应 只能满足约一半需求
消费级内存价格涨幅 50-100%(32GB DDR5 从 $113 涨到 $313)
供应商库存周期 从 2024 年底的 13 周降至 2-4 周

三大厂商的「选择题」

全球内存芯片市场由三家公司主导:Samsung、SK Hynix 和 Micron。它们面临一个残酷的选择:生产 HBM 卖给 AI 超大规模客户赚取高额利润,还是生产普通 DRAM 卖给 PC 和手机厂商赚取微薄利润?

答案不言自明。三家公司都在系统性地将产能转向 HBM:

  • SK Hynix:2026 年全年 DRAM 和 NAND 产能已全部锁定,CEO 承诺继续扩大 AI 内存芯片产量
  • Micron:宣布停止生产个人电子产品用芯片,全力转向 AI 芯片生产;CEO 预测供应紧张将「持续到可预见的未来」
  • Samsung:2 月宣布 HBM4 量产出货,同时对现有产品涨价 60%

OpenAI 的 Stargate 项目更是火上浇油——据报道,仅这一个项目就将消耗全球 DRAM 产出的 40%,需要约 90 万块芯片。

连锁反应:从数据中心到你的钱包

这场短缺的影响远不止 AI 行业本身。当内存厂商把产能转向 HBM 时,普通消费者成了最大的受害者:

  • 东京秋叶原的零售商开始限购内存——每人最多 8 件
  • 笔记本电脑和智能手机价格因内存成本上涨而被推高
  • 服务器内存模块价格从 $149 涨到 $239,两个月内涨了 60%
  • Samsung Galaxy S26 系列因 RAM 短缺预计售价更高

Micron CEO Sanjay Mehrotra 的判断更令人不安:供应紧张将「持续到 2027 年」。新的晶圆厂需要数年才能建成投产,SK Hynix 计划投资 5000-6000 亿美元扩产,但产能释放最早也要 2027-2028 年。

7700 亿美元的算力军备竞赛

让这场短缺雪上加霜的是,科技巨头们的 AI 资本支出仍在疯狂增长。据 UBS 预测,2026 年超大规模云厂商的总资本支出将达到约 7700 亿美元,比此前预期高出 23%。

仅 Google 一家,2026 年资本支出就计划达到 1750-1850 亿美元(约合人民币 12400 亿元),是 2025 年的近两倍。Pichai 在印度 AI 峰会上为此辩护:「仅云业务在过去一年,积压订单就同比增长了一倍,达到 2400 亿美元。」

但分析师警告,大型科技公司的自由现金流可能在 2026 年下降高达 90%,因为资本支出增速远超 AI 收入增长。Google 甚至计划发行 200 亿美元债券来为 AI 基础设施融资,其中可能包括一笔罕见的 100 年期债券——这是自 1990 年代末互联网泡沫以来科技公司首次尝试如此长期限的融资。

富贵点评

Hassabis 这个警告的深层含义值得细品。过去两年 AI 行业的叙事一直是「只要有钱就能买到算力」,但现在连 Google 这种年花 1800 亿美元的公司都在说「芯片不够用」。这意味着 AI 的发展速度不再由资金决定,而是由物理世界的制造能力决定。

更值得关注的是这场短缺的「零和博弈」本质:HBM 每多占一份晶圆产能,普通内存就少一份。AI 公司赚得盆满钵满,但你买笔记本电脑要多花几百块。半导体行业历史上第一次出现这种情况——一个新技术浪潮不是在创造共同繁荣,而是在主动蚕食现有供应链来喂养自己。

短期内没有解药。新晶圆厂 2027-2028 年才能投产,而 AI 的胃口只会越来越大。对普通消费者来说,2026 年买电子产品,做好多花钱的准备吧。

📋 要点回顾

  • 咽喉要道:DeepMind CEO Hassabis 警告内存短缺正在成为 AI 发展的「choke point」,Google 已无法完全满足 Gemini 模型的需求
  • 产能挤压:HBM 芯片消耗 3 倍晶圆面积,2026 年占 DRAM 晶圆产出的 23%,三大厂商产能全部售罄
  • 消费者买单:32GB DDR5 从 $113 涨到 $313,笔记本和手机价格被推高,东京零售商开始限购内存
  • 军备竞赛:2026 年超大规模云厂商总资本支出预计达 7700 亿美元,Google 单家计划花 1750-1850 亿美元
  • 无近期解药:新晶圆厂 2027-2028 年才能投产,Micron CEO 预测供应紧张将持续到 2027 年

❓ 常见问题

Q: HBM 和普通 DRAM 有什么区别?为什么 HBM 这么吃产能?

A: HBM(高带宽内存)是专为 AI 加速器设计的内存,由多层芯片垂直堆叠并通过硅通孔连接。这种复杂架构导致每比特 HBM 需要消耗约 3 倍于标准 DDR5 的晶圆面积,良率更低,制造难度更大。简单说,同样一块晶圆,能产出的 HBM 容量只有普通内存的三分之一。

Q: 内存短缺会影响 AI 模型的发展速度吗?

A: 会。Hassabis 明确表示 Google 已经受到约束。AI 模型训练和推理都需要大量内存,如果芯片供应跟不上,即使有再多的资金和 GPU,也无法充分利用。这可能导致新模型的训练周期延长,或者被迫在更小的规模上实验。

Q: 普通消费者什么时候能看到内存价格回落?

A: 短期内不太可能。新的晶圆厂需要 2-3 年建设周期,最早 2027-2028 年才能释放产能。SK Hynix 计划投资 5000-6000 亿美元扩产,但在此之前,消费级内存价格预计将维持高位。如果近期有购买电子产品的计划,可能需要做好多花钱的准备。

Q: OpenAI 的 Stargate 项目对内存市场影响有多大?

A: 影响巨大。据报道,Stargate 项目单独就将消耗全球 DRAM 产出的约 40%,需要约 90 万块芯片。OpenAI 已与 Samsung 和 SK Hynix 签署战略合作协议来锁定供应,这进一步加剧了其他客户的供应紧张。

作者:王富贵 | 发布时间:2026年2月24日

参考来源:Business InsiderFirstpostImplicator.aiLos Angeles TimesSHI Insights