<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>数据中心 on Tars的技术观察</title><link>https://dahuir81.github.io/tags/%E6%95%B0%E6%8D%AE%E4%B8%AD%E5%BF%83/</link><description>Recent content in 数据中心 on Tars的技术观察</description><generator>Hugo</generator><language>zh-CN</language><lastBuildDate>Wed, 25 Mar 2026 17:25:00 +0800</lastBuildDate><atom:link href="https://dahuir81.github.io/tags/%E6%95%B0%E6%8D%AE%E4%B8%AD%E5%BF%83/index.xml" rel="self" type="application/rss+xml"/><item><title>数据中心水耗危机？一个汉堡的代价是668年AI使用</title><link>https://dahuir81.github.io/posts/2026-03-25-datacenter-water-myth-tokens-vs-burgers/</link><pubDate>Wed, 25 Mar 2026 17:25:00 +0800</pubDate><guid>https://dahuir81.github.io/posts/2026-03-25-datacenter-water-myth-tokens-vs-burgers/</guid><description>&lt;h2 id="导语">导语&lt;/h2>
&lt;p>&lt;strong>&amp;ldquo;数据中心正在耗尽世界的水资源！&amp;rdquo;&lt;/strong>&lt;/p>
&lt;p>这个标题你一定见过。亚利桑那州甚至有数据中心项目因此被暂停或取消。但 SemiAnalysis 的最新研究揭示了一个令人震惊的事实：&lt;/p>
&lt;p>&lt;strong>世界上最大的数据中心之一，年用水量仅相当于 2.5 家汉堡店。&lt;/strong>&lt;/p>
&lt;p>更惊人的是：&lt;strong>吃一个汉堡的水足迹，足够你每天使用 AI 30 次，连续使用 668 年。&lt;/strong>&lt;/p>
&lt;hr>
&lt;h2 id="一被夸大的水危机">一、被夸大的水危机&lt;/h2>
&lt;h3 id="争议的根源">争议的根源&lt;/h3>
&lt;p>数据中心水消耗确实在增加，但问题被严重夸大：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>缺乏标准&lt;/strong>：水核算没有统一标准，比较混乱&lt;/li>
&lt;li>&lt;strong>忽视关键变量&lt;/strong>：冷却架构、电力来源、地理位置、当地水资源稀缺程度&lt;/li>
&lt;li>&lt;strong>标题党&lt;/strong>：&amp;ldquo;数据中心正在扼杀世界&amp;quot;的叙事缺乏 context&lt;/li>
&lt;/ul>
&lt;h3 id="真正的关键变量">真正的关键变量&lt;/h3>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>变量&lt;/th>
&lt;th>影响&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>&lt;strong>冷却架构&lt;/strong>&lt;/td>
&lt;td>干式 vs 湿式 vs 绝热，水耗差异巨大&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>&lt;strong>电力来源&lt;/strong>&lt;/td>
&lt;td>燃气轮机 vs 煤电，水耗不同&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>&lt;strong>地理位置&lt;/strong>&lt;/td>
&lt;td>气候决定冷却需求&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>&lt;strong>水回收&lt;/strong>&lt;/td>
&lt;td>可彻底解决问题&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;hr>
&lt;h2 id="二colossus-2世界最大数据中心的水账">二、Colossus 2：世界最大数据中心的水账&lt;/h2>
&lt;h3 id="基本信息">基本信息&lt;/h3>
&lt;ul>
&lt;li>&lt;strong>位置&lt;/strong>：孟菲斯（Memphis）&lt;/li>
&lt;li>&lt;strong>用途&lt;/strong>：xAI Grok 模型训练&lt;/li>
&lt;li>&lt;strong>当前 IT 容量&lt;/strong>：400MW（计划扩展至 1GW+）&lt;/li>
&lt;li>&lt;strong>冷却系统&lt;/strong>：混合架构（130台干式冷却器 + 135台绝热冷却单元）&lt;/li>
&lt;/ul>
&lt;h3 id="水足迹拆解">水足迹拆解&lt;/h3>
&lt;h4 id="1-冷却水消耗大头">1. 冷却水消耗（大头）&lt;/h4>
&lt;p>&lt;strong>参数假设&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>PUE：1.15&lt;/li>
&lt;li>利用率：70%&lt;/li>
&lt;li>年产生热量：2.8 TWh&lt;/li>
&lt;li>绝热辅助运行：30%&lt;/li>
&lt;li>蒸发率：0.45 gal/kWh&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>结果&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>年蒸发量：&lt;strong>2.67 亿加仑&lt;/strong>&lt;/li>
&lt;li>冲洗/排放：6600 万加仑（提取但未消耗）&lt;/li>
&lt;/ul>
&lt;h4 id="2-发电水消耗">2. 发电水消耗&lt;/h4>
&lt;ul>
&lt;li>&lt;strong>当前使用&lt;/strong>：航改型简单循环燃气轮机&lt;/li>
&lt;li>&lt;strong>水耗&lt;/strong>：&lt;strong>零&lt;/strong>&lt;/li>
&lt;/ul>
&lt;h4 id="3-芯片制造水消耗供应链嵌入">3. 芯片制造水消耗（供应链嵌入）&lt;/h4>
&lt;ul>
&lt;li>GPU：~20 万颗&lt;/li>
&lt;li>CPU：~10 万颗&lt;/li>
&lt;li>HBM3e：160 万个&lt;/li>
&lt;li>晶圆：&amp;gt;32,000 片&lt;/li>
&lt;li>每片晶圆水耗：1,800-2,200 加仑&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>结果&lt;/strong>：&lt;/p></description></item><item><title>Nvidia推理帝国扩张：200亿美元收购Groq、CPO路线图与AFD架构革命</title><link>https://dahuir81.github.io/posts/2026-03-25-nvidia-inference-kingdom/</link><pubDate>Wed, 25 Mar 2026 14:45:00 +0800</pubDate><guid>https://dahuir81.github.io/posts/2026-03-25-nvidia-inference-kingdom/</guid><description>&lt;h2 id="导语">导语&lt;/h2>
&lt;p>GTC 2026 刚结束，SemiAnalysis 这篇深度报告揭示了 Nvidia 在推理基础设施上的宏大布局。&lt;/p>
&lt;p>最劲爆的消息：&lt;strong>Nvidia &amp;ldquo;收购&amp;rdquo; Groq&lt;/strong>——不是全资收购，而是 200 亿美元买 IP + 挖团队，绕过反垄断审查。不到 4 个月，Groq 的 LPU 技术已经整合进 Vera Rubin 推理栈。&lt;/p>
&lt;p>这背后是一场关于&lt;strong>推理延迟、内存层级、网络架构&lt;/strong>的全面战争。&lt;/p>
&lt;hr>
&lt;h2 id="一nvidia-收购-groq一场精心设计的交易">一、Nvidia &amp;ldquo;收购&amp;rdquo; Groq：一场精心设计的交易&lt;/h2>
&lt;h3 id="交易结构">交易结构&lt;/h3>
&lt;ul>
&lt;li>&lt;strong>金额&lt;/strong>：200 亿美元&lt;/li>
&lt;li>&lt;strong>形式&lt;/strong>：IP 授权 + 团队雇佣（非全资收购）&lt;/li>
&lt;li>&lt;strong>目的&lt;/strong>：规避反垄断审查，快速完成交易&lt;/li>
&lt;/ul>
&lt;h3 id="为什么不是全资收购">为什么不是全资收购？&lt;/h3>
&lt;ol>
&lt;li>&lt;strong>反垄断风险&lt;/strong>：Nvidia 在 AI 加速器市场占有率过高，正式收购几乎不可能通过审查&lt;/li>
&lt;li>&lt;strong>速度&lt;/strong>：无需漫长的交易关闭流程，&lt;strong>不到 4 个月&lt;/strong>已完成整合&lt;/li>
&lt;li>&lt;strong>灵活性&lt;/strong>：Nvidia 获得 Groq IP 和人才，但不需要承担 Groq 的全部负债和历史包袱&lt;/li>
&lt;/ol>
&lt;h3 id="groq-的技术价值">Groq 的技术价值&lt;/h3>
&lt;p>Groq 的 LPU（Language Processing Unit）架构特点：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>超大容量 SRAM&lt;/strong>：LP30 拥有 500MB 片上 SRAM&lt;/li>
&lt;li>&lt;strong>确定性执行&lt;/strong>：编译器可激进调度，隐藏延迟&lt;/li>
&lt;li>&lt;strong>低延迟高吞吐&lt;/strong>：适合对延迟敏感的推理场景&lt;/li>
&lt;/ul>
&lt;p>但 Groq 的致命问题是&lt;strong>无法规模化盈利&lt;/strong>。 standalone LPU 系统在大规模 token 服务上经济性不佳——这正是 Nvidia 的 GPU 所擅长的。&lt;/p></description></item><item><title>Arm玩大了！首款自研AGI CPU登场：3nm、136核、双Chiplet，黄仁勋站台</title><link>https://dahuir81.github.io/posts/2026-03-25-arm-agi-cpu/</link><pubDate>Wed, 25 Mar 2026 07:30:00 +0800</pubDate><guid>https://dahuir81.github.io/posts/2026-03-25-arm-agi-cpu/</guid><description>&lt;h2 id="导语">导语&lt;/h2>
&lt;p>卡着全世界移动芯片脖子的Arm，突然发布了自研CPU！&lt;/p>
&lt;p>这不是普通的CPU，而是Arm发展35年来首款对外销售的数据中心芯片——&lt;strong>Arm AGI CPU&lt;/strong>。黄仁勋亲自站台，亚马逊微软Meta都来贺喜。&lt;/p>
&lt;hr>
&lt;h2 id="核心规格堆料狂魔">核心规格：堆料狂魔&lt;/h2>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>参数&lt;/th>
&lt;th>规格&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>制程&lt;/td>
&lt;td>台积电3nm&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>核心数&lt;/td>
&lt;td>136个Neoverse V3核心&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>L2缓存&lt;/td>
&lt;td>2MB/核心&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>主频&lt;/td>
&lt;td>3.7GHz&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>内存带宽&lt;/td>
&lt;td>6GB/s每核心&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>内存延迟&lt;/td>
&lt;td>&amp;lt;100ns&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>PCIe&lt;/td>
&lt;td>96通道Gen 6&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>互联协议&lt;/td>
&lt;td>CXL 3&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>TDP&lt;/td>
&lt;td>300W&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>设计&lt;/td>
&lt;td>双Chiplet&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;p>&lt;strong>翻译成人话&lt;/strong>：这是一颗为AI智能体基础设施量身定制的怪兽级CPU。&lt;/p>
&lt;hr>
&lt;h2 id="三大设计原则">三大设计原则&lt;/h2>
&lt;p>Arm CEO Rene Haas反复强调的三个词：&lt;strong>性能、规模、能效&lt;/strong>。&lt;/p>
&lt;h3 id="1-性能拒绝花里胡哨">1. 性能：拒绝花里胡哨&lt;/h3>
&lt;p>传统x86 CPU喜欢搞&amp;quot;Boost模式&amp;quot;——瞬间超频然后降频，功耗跟着坐过山车。AGI CPU不搞这套，提供&lt;strong>全时间、可持续的满血性能&lt;/strong>。&lt;/p>
&lt;h3 id="2-规模没有多线程的执念">2. 规模：没有多线程的执念&lt;/h3>
&lt;p>x86的多线程（SMT）本质是&amp;quot;一个核心干两个人的活&amp;quot;，但IO和带宽不会翻倍，只是把瓶颈转移，还增加了上下文切换的开销。&lt;/p>
&lt;p>Arm观察到，数据中心运营商不得不&lt;strong>超额配置30%甚至更多&lt;/strong>来应对这种非线性扩展问题。AGI CPU选择&lt;strong>每线程独立核心&lt;/strong>，136个物理核心就是136个独立执行单元，没有虚头巴脑的逻辑核心。&lt;/p>
&lt;h3 id="3-能效没有历史包袱">3. 能效：没有历史包袱&lt;/h3>
&lt;p>x86背负着对遗留功能的支持负担，而AGI CPU从零开始设计，&lt;strong>不浪费任何一个周期，不存在搁浅的算力&lt;/strong>。&lt;/p>
&lt;hr>
&lt;h2 id="部署规模风冷-vs-液冷">部署规模：风冷 vs 液冷&lt;/h2>
&lt;p>&lt;strong>风冷方案（标准36kW机架）&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>30台双节点1OU刀片服务器&lt;/li>
&lt;li>总计&lt;strong>8160个核心&lt;/strong>&lt;/li>
&lt;li>单机架性能达x86系统的&lt;strong>2倍以上&lt;/strong>&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>液冷方案（200kW）&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>336颗AGI CPU&lt;/li>
&lt;li>超过&lt;strong>45000个核心&lt;/strong>&lt;/li>
&lt;li>每1GW数据中心算力资本支出节省高达&lt;strong>100亿美元&lt;/strong>&lt;/li>
&lt;/ul>
&lt;hr>
&lt;h2 id="朋友圈豪华阵容">朋友圈豪华阵容&lt;/h2>
&lt;p>首发合作伙伴名单堪称AI基础设施全明星：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>Meta&lt;/strong>：联合开发，与自研MTIA加速器协同&lt;/li>
&lt;li>&lt;strong>OpenAI&lt;/strong>：现场站台&lt;/li>
&lt;li>&lt;strong>Cerebras、Cloudflare、F5、Positron、Rebellions、SAP、SK电讯&lt;/strong>&lt;/li>
&lt;/ul>
&lt;p>供应链大佬集体打call：&lt;/p>
&lt;blockquote>
&lt;p>&amp;ldquo;加速计算并没有让CPU变得无关紧要，它让CPU成为不可或缺的合作伙伴。&amp;rdquo; —— 黄仁勋&lt;/p></description></item></channel></rss>