导语

卡着全世界移动芯片脖子的Arm,突然发布了自研CPU!

这不是普通的CPU,而是Arm发展35年来首款对外销售的数据中心芯片——Arm AGI CPU。黄仁勋亲自站台,亚马逊微软Meta都来贺喜。


核心规格:堆料狂魔

参数规格
制程台积电3nm
核心数136个Neoverse V3核心
L2缓存2MB/核心
主频3.7GHz
内存带宽6GB/s每核心
内存延迟<100ns
PCIe96通道Gen 6
互联协议CXL 3
TDP300W
设计双Chiplet

翻译成人话:这是一颗为AI智能体基础设施量身定制的怪兽级CPU。


三大设计原则

Arm CEO Rene Haas反复强调的三个词:性能、规模、能效

1. 性能:拒绝花里胡哨

传统x86 CPU喜欢搞"Boost模式"——瞬间超频然后降频,功耗跟着坐过山车。AGI CPU不搞这套,提供全时间、可持续的满血性能

2. 规模:没有多线程的执念

x86的多线程(SMT)本质是"一个核心干两个人的活",但IO和带宽不会翻倍,只是把瓶颈转移,还增加了上下文切换的开销。

Arm观察到,数据中心运营商不得不超额配置30%甚至更多来应对这种非线性扩展问题。AGI CPU选择每线程独立核心,136个物理核心就是136个独立执行单元,没有虚头巴脑的逻辑核心。

3. 能效:没有历史包袱

x86背负着对遗留功能的支持负担,而AGI CPU从零开始设计,不浪费任何一个周期,不存在搁浅的算力


部署规模:风冷 vs 液冷

风冷方案(标准36kW机架)

  • 30台双节点1OU刀片服务器
  • 总计8160个核心
  • 单机架性能达x86系统的2倍以上

液冷方案(200kW)

  • 336颗AGI CPU
  • 超过45000个核心
  • 每1GW数据中心算力资本支出节省高达100亿美元

朋友圈豪华阵容

首发合作伙伴名单堪称AI基础设施全明星:

  • Meta:联合开发,与自研MTIA加速器协同
  • OpenAI:现场站台
  • Cerebras、Cloudflare、F5、Positron、Rebellions、SAP、SK电讯

供应链大佬集体打call:

“加速计算并没有让CPU变得无关紧要,它让CPU成为不可或缺的合作伙伴。” —— 黄仁勋

英伟达、谷歌、微软、亚马逊云科技、博通、Marvell、美光、三星、SK海力士、台积电等50余家企业高管一通猛夸。


商业进展

  • ✅ 现已开放订购
  • ✅ 已交到客户手中评估
  • 🎯 2025年底前量产
  • 🎯 2025年下半年更广泛商用部署

OEM/ODM合作:永擎电子、联想、广达电脑、Supermicro

联想HR650A V3 2U机架服务器已开放商用系统订购。


路线图:2027年见下一代

  • 2025年:AGI CPU 1 + CSS V3
  • 2027年:AGI CPU 2 + CSS V4
  • 未来:AGI CPU 3 + CSS V5

Arm承诺与Neoverse CSS产品线并行推进,确保软件兼容性。


商业模式的进化

Arm的核心业务现在包括三大块:

  1. IP授权(传统业务)
  2. CSS计算子系统方案
  3. 自主设计的芯片产品(新增)

Rene Haas说这是"商业模式的自然延伸",因为市场需求严重未被满足。

他还透露:中国可能是非常好的市场(懂的都懂)。


市场野心

Rene Haas预测:

  • 云端AI业务可能在几年内成为Arm最大的业务
  • 智能体AI基础设施的TAM约1000亿美元
  • 从边缘到云端,Arm有机会在一个1万亿美元量级的市场中大展身手

散热点评

Arm这次是真的玩大了。

从IP授权商到芯片设计者,这个转变不是简单的"垂直整合",而是对整个数据中心CPU市场格局的重新洗牌。

136核、3nm、无SMT、双Chiplet——这些参数背后是对x86架构的针对性打击。当Intel和AMD还在为多线程的复杂性买单时,Arm选择了更干净、更直接的路径。

黄仁勋的站台不是客套。在AI时代,CPU和加速器的协同越来越重要,Arm AGI CPU的定位正是"加速器的最佳搭档"。

Meta的联合开发更有深意——当 hyperscaler 开始深度参与芯片设计,传统CPU厂商的日子只会更难。

一个值得关注的信号:Arm正在研究NVLink支持。这意味着什么?未来可能看到AGI CPU + NVIDIA GPU的更强组合。

散热正常,慧哥。🧊


原文来源:芯东西