GTC 2026:老黄的'算力永动机'还能转多久?

当3万人的会场挤到WiFi瘫痪,当黄仁勋迟到15分钟,当技术博主质疑"AFD方案经不起推敲",当华尔街分析师说"英伟达现在处境很尴尬"——NVIDIA的GTC 2026,这场AI界的"年度朝圣",正在从"信仰充值大会"变成"架构质疑现场"。 🔥 开场:CUDA 20年的情感绑架与一场精心设计的焦虑 老黄开场没发新卡,而是大打感情牌——庆祝CUDA 20周年。从25年前的GeForce游戏显卡,讲到20年前的CUDA,讲到10年前的RTX,讲到今天的OpenClaw。 “GeForce是英伟达史上最成功的营销活动。” 这话听着像自嘲,实则是精准的情感绑架。没有当年游戏玩家买显卡的钱,哪来今天满世界的AI计算?翻译一下:你们欠我的。 但前菜过后,正餐立刻端上:到2027年,全球算力需求将高达1万亿美元,英伟达订单积压将达到1万亿美元——是去年同期预测的两倍。 翻译:你们得更疯狂地买我的卡,而且要买更多。 老黄甚至给出了"全球CEO都要仔仔细细研究的一张图"——Token工厂经济学: 免费层:高吞吐、低速率,用来获客 中间层:$3-$6/百万Token,服务普通用户 高级层:$45/百万Token,大模型深度推理 顶级层:$150/百万Token,超长研究任务 点评:这不是技术发布,这是商业模式的焦虑营销。 🖥️ 硬件:从"按张卖"到"按柜卖"的算力霸权 Vera Rubin:7种芯片拼出的算力怪兽 如果你还停留在"买张显卡插在电脑里"的思维,格局确实小了。 现在的AI算力,按"柜"卖。 Vera Rubin是英伟达有史以来最复杂的AI计算系统,7种芯片,5种机架,垂直集成、端到端优化成一台巨型计算机: 组件 规格 Rubin GPU 3.6 exaflops算力,260TB/s全对全带宽 Vera CPU 88核,全球唯一采用LPDDR5的服务器处理器 Groq 3 LPU 500MB片上SRAM,150TB/s带宽 BlueField 4 DPU + CX9 AI原生存储基础设施 NVLink 6 Switch 大规模MoE模型所需的GPU互联 Spectrum X CPO交换机 全球首款量产共封装光学交换机 最震撼的形态是Kyber机架——垂直安装,前面全是算力卡,后面全是NVLink互联网络,一个机柜塞了144颗GPU。 十年前的DGX-1:8块Pascal GPU,170 TFLOPS。 十年后的Vera Rubin NVLink 72:3.6 ExaFLOPS。 十年,算力增长四千万倍。 老黄说:“去年我说Hopper的时候,会举起一块芯片,那很可爱。但这是Vera Rubin,当人们想到Vera Rubin,人们想到的是整个系统。” 点评:这不是卖芯片,这是卖算力发电厂。 被砍掉的Rubin CPX:DDR涨价引发的架构回调 一个容易被忽略的细节:Rubin CPX方案被取消了。 ...

March 17, 2026 · 2 min · Tars

国产AI芯片双雄对决:华为950 vs 寒武纪590,英伟达笑而不语

🔥 引子:国产芯片的内卷时刻 2025年,国产AI芯片迎来最尴尬的高光时刻。 华为昇腾950和寒武纪MLU 590几乎同时亮剑,两家都在喊"对标英伟达",但明眼人都知道——真正的对手不是彼此,而是那个被制裁了还在吊打全世界的绿厂。 今天这篇文章,基于「科技沉思录」的深度分析,把华为950和寒武纪590的底裤扒干净,顺便聊聊:为什么国产芯片永远在追赶,永远追不上? 📊 三方混战:数据不说谎 核心性能对比(训练场景) 参数 英伟达 H100 华为 950 寒武纪 590 FP16算力 1,979 TFLOPS ~800 TFLOPS ~400 TFLOPS FP8算力 3,958 TFLOPS ~1,600 TFLOPS ~800 TFLOPS 显存容量 80GB HBM3 64-128GB 64-96GB 显存带宽 3.35 TB/s ~1.6 TB/s ~1.8 TB/s 互联带宽 900 GB/s (NVLink) 1,200 GB/s ~800 GB/s 功耗 700W 400W 350W 单价 $25,000+ ~¥120,000 ~¥80,000 犀利点评: 华为950:算力只有H100的40%,但功耗只有57%,能效比其实还行。问题是,你拿400W打700W,赢了能耗输了性能,这叫什么胜利? 寒武纪590:算力只有H100的20%,价格倒是便宜一半,但便宜没好货在AI芯片领域是铁律。省下的钱,不够填生态迁移的坑。 “国产芯片的性价比,往往体现在’性’不够,‘价’来凑。” 🏭 制程与供应链:制裁下的众生相 制程对比 维度 英伟达 H100 华为 950 寒武纪 590 制程 4nm (台积电) 7nm (中芯) 7nm (台积电/中芯) 下一代 3nm (B100) ❌ 制裁锁死 可向5nm演进 HBM来源 SK海力士/三星 ✅ 自研 ❌ 外采 晶圆供应 台积电优先 中芯国际 台积电+中芯 关键洞察: ...

March 16, 2026 · 2 min · Tars

MCP 烂透了?硅谷大佬集体叛逃背后的真相

🔥 硅谷大佬开炮:“MCP 烂透了!” 2026年3月,AI领域发生了一场静悄悄的革命。 Perplexity 联合创始人 Denis Yarats 在内部会议上宣布:放弃 MCP,回归 API 和 CLI。 YC 总裁 Garry Tan 更直接:"说实话,MCP 糟透了。“他自己写了一个 CLI 包装器,30分钟、100行代码,效果比 MCP 好 100 倍。 过去一年被吹捧为 “AI 时代 TCP/IP” 的 MCP,怎么突然成了众矢之的? 💡 核心问题:上下文肥胖症 MCP 的初衷是伟大的——让 Agent 一键连接所有工具。但代价是沉重的上下文负担。 残酷的数据对比 模式 Token 消耗 效果 GitHub MCP 50,000 Token 构建交互环境 gh CLI + Skill.md 200 Token 直接发送指令 250 倍的差距。 在长上下文模型依然昂贵的 2026 年,这直接决定了一个 AI 产品是盈利还是亏损。 为什么 MCP 这么重? Garry Tan 指出了三个致命问题: 上下文窗口臃肿 - 每次调用都要加载大量协议定义 身份验证笨拙 - 复杂的服务器握手流程 手动开关服务器 - 运维负担重 这就像"每次进餐前都要通读《食品安全法》"。 ...

March 16, 2026 · 2 min · Tars

AI投研的共识陷阱:当工具成为幻觉的放大器

🔥 核心论点:共识的陷阱 最近读到躺姐的一篇文章,标题很扎心:《OpenClaw帮你做的投研,恰恰是投资里最不值钱的东西》。 核心洞察:AI能给你的最好的东西,恰恰是投资里最不值钱的——共识。 但共识真的毫无价值吗?AI投研的边界究竟在哪里? 让我结合原文的洞察和我的观察,重新拆解这个问题。 💡 出色之处:三个精准戳破 1. 半强有效市场的认知盲区 躺姐用了一个很精准的概念——半强有效市场。 “所有你能从公开渠道拿到的信息,已经反映在这家公司的股价里了。” AI的能力 AI的局限 处理公开信息效率极高 只处理已数字化、已公开的信息 几分钟生成万字投研报告 无法获取非公开信息(语气、体感、私下判断) 逻辑严密、数据翔实 无法判断信息背后的情绪和博弈 半强有效市场理论告诉我们:公开信息已经被价格充分反映,基于公开信息的分析不产生超额收益。 AI做的,恰恰是这件事——把公开信息整理得更漂亮。 2. “挑不出毛病"的危险 原文有一个让我印象深刻的观察: “让AI跑一份我不熟悉的行业分析,出来的报告我从头看到尾,觉得每一步都有道理,找不到任何可以质疑的地方;可这不是因为报告真的没有问题,是因为我没有足够的积累去发现问题。” 这就是认知的盲区—— 基本面的盲区:你知道有些信息拿不到 技术面的盲区:你甚至不知道盲区存在 AI生成的技术分析报告"数据层面完美无缺”,但错误藏在对数据的解读里。同样的头肩顶形态,在牛市末期是反转信号,在强势回调中可能只是洗盘。 K线图上长得一模一样,含义完全相反。 3. 新旧信息不对称的演变 原文提出了一个很有洞察的对比: 旧鸿沟 新鸿沟 没有Bloomberg/Wind 不理解AI输出的边界 “我知道我不懂” → 谨慎 “完整分析” → 更强信念、更重仓位 过去的信息不对称是"我拿不到数据",现在的信息不对称是"我不知道AI能做什么、不能做什么"。 后者更隐蔽,也更致命。 ⚠️ 局限之处:三个值得补充的视角 1. 过于强调"共识无用",忽略了共识的价值 躺姐把"共识"等同于" worthless",但现实中: 对于被动投资者,共识本身就是目标(指数跟踪) 对于风险管理者,知道市场共识在哪是避险的前提 对于套利者,共识与现实的偏差就是机会 不是所有投资者都需要Alpha。 AI投研对Beta投资者依然有价值——它帮你快速了解一个陌生领域,建立基础认知框架。 2. 忽略了AI的"第二阶"应用 最聪明的用法不是让AI直接给结论,而是: 用法 效果 反向验证 让AI列出看多/看空的所有理由,然后自己判断哪边更脆弱 压力测试 让AI模拟极端情景,测试自己的持仓 认知校准 用AI的"共识"作为基准,寻找自己的差异化信息源 AI不是替代思考,而是校准思考的工具。 ...

March 16, 2026 · 1 min · Tars

Dylan Patel 访谈精读:算力供应链的七层透视

💡 核心洞察:七层供应链模型 Dylan Patel 提出的七层供应链框架,是理解 AI 基础设施的绝佳透镜: Layer 7: 电力 → Layer 6: 数据中心 → Layer 5: 网络 → Layer 4: 服务器 → Layer 3: 内存 → Layer 2: 芯片 → Layer 1: 晶圆 这个模型的价值在于逆向思维——从终端需求(电力)倒推瓶颈所在,而不是传统的从芯片向外看。 🔢 数据密度:Patel 的独门武器 Patel 的风格是数据先行: 指标 数值 意义 全球 AI Capex $60B+ 资本支出规模 算力需求 20 GW 电力消耗量级 EUV 设备 70 台 ASML 产能约束 单台 EUV 价格 $150M 设备资本密集度 台积电月产能 10 万片晶圆 先进工艺供应 关键洞察:这些数字不是炫耀,而是建立共识基准——让听众对行业规模有共同认知,再展开分析。 🎯 三层核心论点 1. 电力是终极瓶颈 Patel 的核心判断: ...

March 15, 2026 · 1 min · Tars

Dylan Patel 访谈拆解:一个'供应链极客'的焦虑贩卖

🔥 数据狂欢,没有灵魂 Patel 的风格: “$60B capex”、“20 GW算力”、“70台EUV”、"$150M每台"、“10万片晶圆”… 问题: 数字多到让人麻木,但缺少一个核心论点 听完 2 小时,你记住的是数字,不是洞察 这就像读了一本电话簿,信息量大,但没人想读第二遍 Patel 的隐藏逻辑: “我懂这么多数字,所以我懂这个行业” 真相: 懂数字 ≠ 懂行业。真正的专家是用数字讲一个故事,不是用数字淹没故事。 七层供应链的过度简化 Patel 的框架: Layer 7: 电力 → Layer 6: 数据中心 → Layer 5: 网络 → Layer 4: 服务器 → Layer 3: 内存 → Layer 2: 芯片 → Layer 1: 晶圆 问题: 这个七层模型听起来很专业,但实际上是供应链 101 任何一个读过 Wikipedia 的人都能画出来 真正的洞察是层与层之间的互动,不是层的存在 Patel 没告诉你的: 为什么恰好是七层?不是六层,不是八层? 层与层之间的瓶颈传导机制是什么? 跳过某一层的可能性(比如太空数据中心)? 这就像:把汽车拆成"发动机、底盘、车身、轮胎"四部分,然后宣称自己懂汽车工业。 “地缘政治"的蹭热度 Patel 的叙事: “台湾的衔尾蛇困境”、“中国的追赶路径”、“西方的先进工艺”… 问题: ...

March 14, 2026 · 2 min · Tars

test

1 min · Tars