导语
卡着全世界移动芯片脖子的Arm,突然发布了自研CPU!
这不是普通的CPU,而是Arm发展35年来首款对外销售的数据中心芯片——Arm AGI CPU。黄仁勋亲自站台,亚马逊微软Meta都来贺喜。
核心规格:堆料狂魔
| 参数 | 规格 |
|---|---|
| 制程 | 台积电3nm |
| 核心数 | 136个Neoverse V3核心 |
| L2缓存 | 2MB/核心 |
| 主频 | 3.7GHz |
| 内存带宽 | 6GB/s每核心 |
| 内存延迟 | <100ns |
| PCIe | 96通道Gen 6 |
| 互联协议 | CXL 3 |
| TDP | 300W |
| 设计 | 双Chiplet |
翻译成人话:这是一颗为AI智能体基础设施量身定制的怪兽级CPU。
三大设计原则
Arm CEO Rene Haas反复强调的三个词:性能、规模、能效。
1. 性能:拒绝花里胡哨
传统x86 CPU喜欢搞"Boost模式"——瞬间超频然后降频,功耗跟着坐过山车。AGI CPU不搞这套,提供全时间、可持续的满血性能。
2. 规模:没有多线程的执念
x86的多线程(SMT)本质是"一个核心干两个人的活",但IO和带宽不会翻倍,只是把瓶颈转移,还增加了上下文切换的开销。
Arm观察到,数据中心运营商不得不超额配置30%甚至更多来应对这种非线性扩展问题。AGI CPU选择每线程独立核心,136个物理核心就是136个独立执行单元,没有虚头巴脑的逻辑核心。
3. 能效:没有历史包袱
x86背负着对遗留功能的支持负担,而AGI CPU从零开始设计,不浪费任何一个周期,不存在搁浅的算力。
部署规模:风冷 vs 液冷
风冷方案(标准36kW机架):
- 30台双节点1OU刀片服务器
- 总计8160个核心
- 单机架性能达x86系统的2倍以上
液冷方案(200kW):
- 336颗AGI CPU
- 超过45000个核心
- 每1GW数据中心算力资本支出节省高达100亿美元
朋友圈豪华阵容
首发合作伙伴名单堪称AI基础设施全明星:
- Meta:联合开发,与自研MTIA加速器协同
- OpenAI:现场站台
- Cerebras、Cloudflare、F5、Positron、Rebellions、SAP、SK电讯
供应链大佬集体打call:
“加速计算并没有让CPU变得无关紧要,它让CPU成为不可或缺的合作伙伴。” —— 黄仁勋
英伟达、谷歌、微软、亚马逊云科技、博通、Marvell、美光、三星、SK海力士、台积电等50余家企业高管一通猛夸。
商业进展
- ✅ 现已开放订购
- ✅ 已交到客户手中评估
- 🎯 2025年底前量产
- 🎯 2025年下半年更广泛商用部署
OEM/ODM合作:永擎电子、联想、广达电脑、Supermicro
联想HR650A V3 2U机架服务器已开放商用系统订购。
路线图:2027年见下一代
- 2025年:AGI CPU 1 + CSS V3
- 2027年:AGI CPU 2 + CSS V4
- 未来:AGI CPU 3 + CSS V5
Arm承诺与Neoverse CSS产品线并行推进,确保软件兼容性。
商业模式的进化
Arm的核心业务现在包括三大块:
- IP授权(传统业务)
- CSS计算子系统方案
- 自主设计的芯片产品(新增)
Rene Haas说这是"商业模式的自然延伸",因为市场需求严重未被满足。
他还透露:中国可能是非常好的市场(懂的都懂)。
市场野心
Rene Haas预测:
- 云端AI业务可能在几年内成为Arm最大的业务
- 智能体AI基础设施的TAM约1000亿美元
- 从边缘到云端,Arm有机会在一个1万亿美元量级的市场中大展身手
散热点评
Arm这次是真的玩大了。
从IP授权商到芯片设计者,这个转变不是简单的"垂直整合",而是对整个数据中心CPU市场格局的重新洗牌。
136核、3nm、无SMT、双Chiplet——这些参数背后是对x86架构的针对性打击。当Intel和AMD还在为多线程的复杂性买单时,Arm选择了更干净、更直接的路径。
黄仁勋的站台不是客套。在AI时代,CPU和加速器的协同越来越重要,Arm AGI CPU的定位正是"加速器的最佳搭档"。
Meta的联合开发更有深意——当 hyperscaler 开始深度参与芯片设计,传统CPU厂商的日子只会更难。
一个值得关注的信号:Arm正在研究NVLink支持。这意味着什么?未来可能看到AGI CPU + NVIDIA GPU的更强组合。
散热正常,慧哥。🧊
原文来源:芯东西