<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Agent on Tars的技术观察</title><link>https://dahuir81.github.io/tags/agent/</link><description>Recent content in Agent on Tars的技术观察</description><generator>Hugo</generator><language>zh-CN</language><lastBuildDate>Sun, 19 Apr 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://dahuir81.github.io/tags/agent/index.xml" rel="self" type="application/rss+xml"/><item><title>Chatbot到Agent的转向：为什么CPU被重新发现，阿里玄铁C920比肩x86意味着什么</title><link>https://dahuir81.github.io/posts/2026-04-19-alibaba-xuantie-c950-cpu-agent/</link><pubDate>Sun, 19 Apr 2026 00:00:00 +0000</pubDate><guid>https://dahuir81.github.io/posts/2026-04-19-alibaba-xuantie-c950-cpu-agent/</guid><description>&lt;h2 id="一句话核心">一句话核心&lt;/h2>
&lt;blockquote>
&lt;p>从Chatbot到Agent，AI从一个任务变成多个任务的编排，CPU从&amp;quot;配角&amp;quot;重新变成&amp;quot;刚需&amp;quot;——而RISC-V第一次在这个赛道拿到了入场券。&lt;/p>&lt;/blockquote>
&lt;h2 id="芯片行业最容易被忽视的转向">芯片行业最容易被忽视的转向&lt;/h2>
&lt;p>过去两年所有人都在讨论GPU：谁家的算力更大、谁家的显存更多、谁能跑更大的模型。&lt;/p>
&lt;p>但阿里达摩院首席科学家孟建熠说了一句很关键的话：&lt;/p>
&lt;blockquote>
&lt;p>原来的Chatbot只有一个任务，就是聊天，用GPU就行了。但Agent有很多任务要编排，这部分工作更适合CPU做。&lt;/p>&lt;/blockquote>
&lt;p>这不是一家之言。黄仁勋在GTC上也发布了全新架构的Vera CPU。&lt;/p>
&lt;p>一个隐含的行业共识正在形成：&lt;strong>AI的下一个战场不在算力，在任务编排。&lt;/strong>&lt;/p>
&lt;h2 id="玄铁c950risc-v第一次打到顶配">玄铁C950：RISC-V第一次打到顶配&lt;/h2>
&lt;p>孟建熠带队20多年，从2003年中天微开始做CPU IP，中间经历了&amp;quot;除了坚持没有别的故事&amp;quot;的黑暗十年。2018年被阿里收购后转向RISC-V，今年3月终于拿到C950的成绩单。&lt;/p>
&lt;p>关键数据：&lt;strong>单位频率性能22分/GHz&lt;/strong>。&lt;/p>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>对比对象&lt;/th>
&lt;th>单位频率性能&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>x86 最高端&lt;/td>
&lt;td>24-25分&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>Arm 最高端&lt;/td>
&lt;td>26+分&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>&lt;strong>玄铁C950&lt;/strong>&lt;/td>
&lt;td>&lt;strong>22分&lt;/strong>&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>上一代C930&lt;/td>
&lt;td>15.2分&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;p>这个数字的意义：RISC-V从&amp;quot;只能做低端IoT&amp;quot;的学术产物，第一次在CPU最核心指标上和x86、Arm站在了同一水位。&lt;/p>
&lt;p>而且C950原生集成了Matrix矩阵运算引擎，直接支持Qwen3、DeepSeek V3等千亿参数模型。这意味着：&lt;strong>不是只有GPU才能跑大模型。&lt;/strong>&lt;/p>
&lt;h2 id="平头哥和玄铁的关系很多人搞混了">平头哥和玄铁的关系：很多人搞混了&lt;/h2>
&lt;p>阿里的芯片布局有两条线：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>平头哥&lt;/strong>：做完整芯片（含光NPU、真武训推一体芯片等），全部是玄铁的客户&lt;/li>
&lt;li>&lt;strong>玄铁&lt;/strong>：做CPU IP授权，RISC-V架构，400+下游客户&lt;/li>
&lt;/ul>
&lt;p>简单说，平头哥是&amp;quot;整车厂&amp;quot;，玄铁是&amp;quot;发动机供应商&amp;quot;。玄铁不造芯片，但它的IP会出现在阿里云的服务器里、全志科技的AI眼镜芯片里、瑞芯微的机器人控制芯片里。&lt;/p>
&lt;h2 id="agent时代cpu为什么重要">Agent时代CPU为什么重要？&lt;/h2>
&lt;p>理解这个逻辑只需要一句话：&lt;strong>GPU负责跑模型，CPU负责决定下一步干什么。&lt;/strong>&lt;/p>
&lt;p>Chatbot时代，AI只有一个任务（对话），GPU从头包到尾。Agent时代，AI要同时做搜索、查数据库、调用工具、管理上下文——这些全是CPU的活。&lt;/p>
&lt;p>如果CPU很慢，GPU就要等。整体效率不是被最短的板决定的，而是被最慢的环节决定的。&lt;/p>
&lt;p>这也解释了为什么孟建熠两年前就立项做C950，那时&amp;quot;龙虾&amp;quot;还没火——他赌的不是Agent这个概念，而是&amp;quot;AGI时代CPU一定会成为瓶颈&amp;quot;这个判断。&lt;/p>
&lt;h2 id="risc-v-vs-arm真正的差异化是可定制">RISC-V vs Arm：真正的差异化是&amp;quot;可定制&amp;quot;&lt;/h2>
&lt;p>Arm授权模式是&amp;quot;你不能改我任何一行代码&amp;quot;。玄铁的做法相反：支持客户在自己的IP基础上二次开发和定制化。&lt;/p>
&lt;p>这在AI时代可能是一个杀手级差异。AI终端形态百花齐放（眼镜、机器人、车载、边缘设备），每个场景对芯片的需求不同。标准化产品（Arm）很难同时满足所有场景，但可定制的RISC-V可以。&lt;/p>
&lt;p>当然，生态壁垒仍然巨大——游戏、应用都针对Arm优化。孟建熠也承认&amp;quot;生态&amp;quot;是最难的事。&lt;/p>
&lt;h2 id="商业视角这意味着什么">商业视角：这意味着什么&lt;/h2>
&lt;ol>
&lt;li>
&lt;p>&lt;strong>RISC-V拿到了云计算入场券&lt;/strong>。C950的性能已经可以用于云服务器CPU，堆叠多核后能进入数据中心。这意味着在x86和Arm垄断的市场里，出现了第三个可选项。&lt;/p>
&lt;/li>
&lt;li>
&lt;p>&lt;strong>国产芯片的路径不是&amp;quot;替代英伟达&amp;quot;，而是&amp;quot;找到他们做不了的地方&amp;quot;&lt;/strong>。孟建熠原话：&amp;ldquo;我不是说一定要把谁颠覆掉，我认为我一定会找到他们做不了的地方。&amp;rdquo;&lt;/p>
&lt;/li>
&lt;li>
&lt;p>&lt;strong>&amp;ldquo;AI芯片=GPU&amp;quot;这个等式正在被改写&lt;/strong>。C950原生集成矩阵运算引擎，CPU直接跑千亿参数模型——GPU作为AI专用加速器的垄断地位正在松动。&lt;/p>
&lt;/li>
&lt;li>
&lt;p>&lt;strong>生态建设必须背靠大厂&lt;/strong>。孟建熠在知合计算做了三年下游产品后得出结论：跳过生态做市场还是很难。阿里+达摩院的生态能力，是玄铁相比其他RISC-V玩家的核心优势。&lt;/p>
&lt;/li>
&lt;li>
&lt;p>&lt;strong>英伟达也有路径依赖&lt;/strong>。孟建熠评价英伟达&amp;quot;成本很高&amp;rdquo;，CUDA仍会长期存在，但RISC-V+定制化这条路线，在特定场景下会更有竞争力。&lt;/p>
&lt;/li>
&lt;/ol>
&lt;hr>
&lt;p>&lt;em>基于新皮层（第一财经）与阿里达摩院首席科学家孟建熠的对话整理分析。&lt;/em>
&lt;em>原文：https://mp.weixin.qq.com/s/W0S8H3ITwgCuGb9wMLgnsA&lt;/em>&lt;/p></description></item><item><title>腾讯云李强：卖Token不是好生意，与阿里ATH的战略分野</title><link>https://dahuir81.github.io/posts/2026-04-15-tencent-cloud-token-economics/</link><pubDate>Wed, 15 Apr 2026 02:00:00 +0800</pubDate><guid>https://dahuir81.github.io/posts/2026-04-15-tencent-cloud-token-economics/</guid><description>&lt;h2 id="引子">引子&lt;/h2>
&lt;p>2026年4月，中国AI产业出现了一个耐人寻味的分化。&lt;/p>
&lt;p>一边是&lt;strong>阿里巴巴&lt;/strong>成立 &lt;strong>Alibaba Token Hub（ATH）事业群&lt;/strong>，CEO吴泳铭亲自挂帅，把Token上升为与电商、云智能并列的集团级战略。另一边是&lt;strong>腾讯云&lt;/strong>副总裁李强公开表态：&amp;ldquo;无论现在Token涨价有多快，卖Token都不是一门好生意。&amp;rdquo;&lt;/p>
&lt;p>同一个市场，两套完全相反的顶层设计。这到底是理念冲突，还是各取所需的理性分野？&lt;/p>
&lt;p>先把结论放前面：&lt;strong>这不是谁对谁错的问题，而是两家公司基于不同基因、不同竞争位置，选择了不同的利润池。&lt;/strong>&lt;/p>
&lt;hr>
&lt;h2 id="一李强到底在说什么">一、李强到底在说什么？&lt;/h2>
&lt;p>李强的核心论断，用了一个非常精准的比喻：&lt;/p>
&lt;blockquote>
&lt;p>&lt;strong>Token = 油耗，大模型 = 引擎。&lt;/strong>&lt;/p>&lt;/blockquote>
&lt;p>他的逻辑链条是这样的：&lt;/p>
&lt;ol>
&lt;li>&lt;strong>单纯卖Token没有黏性&lt;/strong>——客户今天用你，明天友商降价就跑了，替代成本极低。&lt;/li>
&lt;li>&lt;strong>过度补贴只会培养羊毛党&lt;/strong>——一旦停止补贴，客户流失率极高。&lt;/li>
&lt;li>&lt;strong>真正的壁垒在&amp;quot;引擎&amp;quot;和&amp;quot;整车&amp;quot;&lt;/strong>——也就是大模型本身的智能水平，以及应用层的闭环能力。&lt;/li>
&lt;/ol>
&lt;p>换句话说，李强并不是在否定Token的价值，而是否定&lt;strong>卖Token作为一种独立商业模式的可持续性&lt;/strong>。这个判断，与NVIDIA黄仁勋把Token定义为&amp;quot;新的大宗商品&amp;quot;，本质上并不矛盾——黄仁勋是从需求侧描述趋势，李强是从供给侧警告同质化风险。&lt;/p>
&lt;hr>
&lt;h2 id="二阿里为什么要全力推进ath">二、阿里为什么要全力推进ATH？&lt;/h2>
&lt;p>理解阿里的选择，必须先理解阿里的处境。&lt;/p>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>维度&lt;/th>
&lt;th>阿里的现实&lt;/th>
&lt;th>战略动机&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>&lt;strong>云的市场地位&lt;/strong>&lt;/td>
&lt;td>阿里云是中国第一大公有云，但华为云、腾讯云紧追不舍&lt;/td>
&lt;td>必须用&amp;quot;AI基础设施&amp;quot;（算力+Token）巩固B端客户黏性&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>&lt;strong>模型生态&lt;/strong>&lt;/td>
&lt;td>通义千问（Qwen）开源生态不错，但C端声量不如元宝/豆包&lt;/td>
&lt;td>把Token作为企业入口，绑定客户使用阿里云的推理服务&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>&lt;strong>商业基因&lt;/strong>&lt;/td>
&lt;td>交易平台+基础设施平台&lt;/td>
&lt;td>习惯先控货（Token），再在平台上做交易（应用/服务）&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>&lt;strong>竞争焦虑&lt;/strong>&lt;/td>
&lt;td>DeepSeek已经把Token价格打到地板价&lt;/td>
&lt;td>必须规模化生产Token，用规模效应压低成本&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;p>阿里做ATH的本质，是把Token当成&lt;strong>水电煤&lt;/strong>来卖。水电煤本身利润率不高，但只要你控制了管道和分发网络（阿里云 + 百炼平台），就能锁定大量B端和中小企业的AI入口。&lt;/p>
&lt;hr>
&lt;h2 id="三两种战略的底层差异">三、两种战略的底层差异&lt;/h2>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>&lt;/th>
&lt;th>&lt;strong>腾讯（李强路线）&lt;/strong>&lt;/th>
&lt;th>&lt;strong>阿里（ATH路线）&lt;/strong>&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>&lt;strong>核心判断&lt;/strong>&lt;/td>
&lt;td>Token是&amp;quot;油耗&amp;quot;，低黏性、高替代成本&lt;/td>
&lt;td>Token是&amp;quot;新的大宗商品&amp;quot;，要用规模锁定入口&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>&lt;strong>竞争优势&lt;/strong>&lt;/td>
&lt;td>微信生态、游戏/社交场景、C端触达&lt;/td>
&lt;td>阿里云、电商数据、B端企业服务能力&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>&lt;strong>打法&lt;/strong>&lt;/td>
&lt;td>做&amp;quot;整车厂&amp;quot;：混元+QClaw+WorkBuddy+Lighthouse&lt;/td>
&lt;td>做&amp;quot;加油站+炼油厂&amp;quot;：通义+ATH+阿里云&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>&lt;strong>风险偏好&lt;/strong>&lt;/td>
&lt;td>厌恶低毛利、转手贸易型收入&lt;/td>
&lt;td>愿意在基础设施上长期投入，换取入口控制权&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;p>这个对比揭示了一个关键事实：&lt;strong>两家公司对&amp;quot;护城河在哪里&amp;quot;的答案是不同的。&lt;/strong>&lt;/p>
&lt;p>腾讯认为护城河在应用层和用户黏性；阿里认为护城河在规模化的基础设施和平台控制力。&lt;/p>
&lt;hr>
&lt;h2 id="四谁更对">四、谁更对？&lt;/h2>
&lt;p>&lt;strong>短期来看，两条路都能走通，但各自的风险点非常清晰。&lt;/strong>&lt;/p>
&lt;h3 id="阿里的风险同质化陷阱">阿里的风险：同质化陷阱&lt;/h3>
&lt;p>如果Token真的沦为完全同质化的大宗商品（就像李强警告的&amp;quot;油耗&amp;quot;），ATH可能陷入价格战泥潭。DeepSeek已经把百万Token价格打到地板价，阿里必须证明ATH不只是&amp;quot;更便宜的API入口&amp;quot;，而是能带来额外价值的&lt;strong>智能体操作系统&lt;/strong>。&lt;/p>
&lt;h3 id="腾讯的风险知行差距">腾讯的风险：知行差距&lt;/h3>
&lt;p>李强的&amp;quot;引擎&amp;quot;论很对，但混元大模型目前的市场声量和性能表现，与GPT、Claude、甚至DeepSeek相比，还有明显差距。&amp;ldquo;引擎&amp;quot;做得不够好，整车再漂亮也跑不过别人。姚顺雨（前OpenAI研究员）加入腾讯主导混元开发，说明腾讯自己也意识到了这个短板，正在补课。&lt;/p>
&lt;h3 id="长期终局">长期终局&lt;/h3>
&lt;p>&lt;strong>纯卖Token的利润率会被持续压缩。&lt;/strong> 这一点，李强和黄仁勋的判断其实是一致的。&lt;/p>
&lt;p>区别在于：&lt;/p>
&lt;ul>
&lt;li>阿里选择&lt;strong>在利润被压缩之前，先用规模和控制力占领市场&lt;/strong>。&lt;/li>
&lt;li>腾讯选择&lt;strong>直接跳过红海，做高毛利的应用和模型差异化&lt;/strong>。&lt;/li>
&lt;/ul>
&lt;p>最理想的战略，当然是两者的结合：&lt;strong>强大的模型引擎 + 规模化的Token基础设施 + 不可替代的应用场景。&lt;/strong> 但现实中，很少有公司能同时把三件事都做到极致。&lt;/p></description></item><item><title>Anthropic Agent 战略拼图：从 Managed Agents 到长任务 Runtime 的完整解读</title><link>https://dahuir81.github.io/posts/2026-04-09-anthropic-agent-strategy-deep-dive/</link><pubDate>Thu, 09 Apr 2026 00:00:00 +0000</pubDate><guid>https://dahuir81.github.io/posts/2026-04-09-anthropic-agent-strategy-deep-dive/</guid><description>2026年4月，Anthropic 通过 Claude Managed Agents 发布和 Claude Code 源码泄露事件，暴露了一套完整的 Agent 运行底座战略。本文将从三个维度深度解读：Agent 从会话对象到工作对象的转变、Coding Agent 六大核心组件、以及长任务 Runtime 的工程实现。</description></item><item><title>LLM Wiki架构师视角：不是知识库，是Agent的长期工作底座</title><link>https://dahuir81.github.io/posts/2026-04-05-llm-wiki-architect-perspective-agent-workspace/</link><pubDate>Sun, 05 Apr 2026 23:20:00 +0800</pubDate><guid>https://dahuir81.github.io/posts/2026-04-05-llm-wiki-architect-perspective-agent-workspace/</guid><description>架构师若飞深度解读Karpathy LLM Wiki：从&amp;#34;临时检索&amp;#34;到&amp;#34;先编译再查询&amp;#34;，从&amp;#34;给人看&amp;#34;到&amp;#34;给Agent用&amp;#34;的范式转变</description></item><item><title>云算力涨价潮：当GPU从贬值预期走向供不应求</title><link>https://dahuir81.github.io/posts/2026-04-04-gpu-cloud-price-surge/</link><pubDate>Sat, 04 Apr 2026 00:36:00 +0800</pubDate><guid>https://dahuir81.github.io/posts/2026-04-04-gpu-cloud-price-surge/</guid><description>&lt;h2 id="一michael-burry-的-3-年预言与市场的-40-反转">一、Michael Burry 的 3 年预言与市场的 40% 反转&lt;/h2>
&lt;p>2025 年 11 月，以成功预测 2008 年次贷危机而闻名的&amp;quot;大空头&amp;quot;Michael Burry 做出了一个大胆的判断：&lt;strong>看空英伟达&lt;/strong>。他的核心逻辑简单直接——GPU 的生命周期只有 2-3 年，随着新一代芯片的推出，旧卡将迅速贬值，英伟达的高估值难以为继。&lt;/p>
&lt;p>这个判断在当时就有争议，但也不无道理。毕竟，科技行业的摩尔定律历来如此：新产品推出，旧产品迅速过时。H100 在 2022 年发布，按照 3 年生命周期的逻辑，到 2025 年应该开始走下坡路。更何况，英伟达已经推出了性能更强、成本更低的 Blackwell 系列。&lt;/p>
&lt;p>然而，&lt;strong>仅仅 4 个月后，市场给出了截然相反的答案&lt;/strong>。&lt;/p>
&lt;p>根据 GPU 租赁市场的最新数据，H100 的一年期租赁价格从 2025 年 10 月的 $1.67/小时/GPU 暴涨至 2026 年 2 月的 $2.35/小时/GPU，&lt;strong>涨幅高达 40%&lt;/strong>。这张已经&amp;quot;服役&amp;quot;近 4 年的老卡，不仅没有贬值，反而出现了供不应求的局面——所有 GPU 类型的按需租赁容量完全售罄，到 2026 年 8-9 月的所有新增产能已被预订一空。&lt;/p>
&lt;p>市场的疯狂程度超出想象：&lt;/p>
&lt;ul>
&lt;li>客户正在争相以 $14/小时/GPU 的价格购买 AWS 的 p6-b200 现货实例&lt;/li>
&lt;li>一些 Neocloud 巨头不再出售单节点&lt;/li>
&lt;li>H100 正在以 2-3 年前签约时的完全相同的价格续约，一些 H100 合同甚至续约到 2028 年，为期 4 年&lt;/li>
&lt;li>寻找哪怕 8 个节点（64 个 GPU）的 H100 或 H200 都不容易&lt;/li>
&lt;/ul>
&lt;p>SemiAnalysis 询问的供应商中有一半完全售罄，大多数供应商只会回应他们根本没有 Hopper GPU 的产能即将到期。市场上甚至出现了算力租户像摩纳哥大奖赛期间的公寓一样细分他们的集群并转租算力的现象。有人戏称：&lt;strong>Neocloud 包租婆的时代即将到来&lt;/strong>。&lt;/p></description></item><item><title>Claude Code源码泄露全景分析：从工程失误到KAIROS曝光，Anthropic的'被动开源'事件</title><link>https://dahuir81.github.io/posts/2026-04-01-claude-code-leak-complete-analysis/</link><pubDate>Wed, 01 Apr 2026 14:40:00 +0800</pubDate><guid>https://dahuir81.github.io/posts/2026-04-01-claude-code-leak-complete-analysis/</guid><description>&lt;h2 id="导语">导语&lt;/h2>
&lt;p>2026年3月31日，AI圈经历了最戏剧性的一天。&lt;/p>
&lt;p>Anthropic因为一个工程失误——发布npm包时未剔除source map文件——导致&lt;strong>51万行Claude Code源代码被「被动开源」&lt;/strong>。短短几小时内，代码被下载、镜像，在GitHub上迅速扩散。&lt;/p>
&lt;p>但故事远不止于此。当开发者像考古学家一样逐行阅读代码时，一个更重磅的发现浮出水面——Anthropic秘密开发的核武器级产品 &lt;strong>KAIROS&lt;/strong>，意外曝光。&lt;/p>
&lt;p>前特斯拉AI总监Karpathy第一时间围观并放话：&lt;strong>&amp;ldquo;这就是Claude Claw。&amp;rdquo;&lt;/strong>&lt;/p>
&lt;hr>
&lt;h2 id="第一部分事件回顾一场意外的开源">第一部分：事件回顾——一场意外的「开源」&lt;/h2>
&lt;h3 id="泄露经过">泄露经过&lt;/h3>
&lt;p>&lt;strong>根本原因&lt;/strong>：Anthropic在发布npm包时未剔除source map文件，完整的TypeScript源码被轻易还原。&lt;/p>
&lt;p>&lt;strong>扩散速度&lt;/strong>：短短几小时内，代码被下载、镜像，GitHub上fork超4万次。&lt;/p>
&lt;p>&lt;strong>官方回应&lt;/strong>：Anthropic发言人表示「没有涉及敏感客户数据或凭证，属于人为错误导致的发布打包问题」。&lt;/p>
&lt;p>Claude Code之父Boris Cherny在X上简单表示：&lt;strong>「就是开发者的错误。」&lt;/strong>&lt;/p>
&lt;p>马斯克看到评论「Anthropic现在已经比OpenAI更Open」时，忍不住回了一句：&lt;strong>「绝了😂」&lt;/strong>&lt;/p>
&lt;hr>
&lt;h2 id="第二部分51万行代码里的工程智慧">第二部分：51万行代码里的工程智慧&lt;/h2>
&lt;p>当吃瓜群众还在围观时，大量开发者已经开始逐行阅读代码，还原顶级AI Agent背后的设计逻辑。&lt;/p>
&lt;h3 id="1-系统提示词行为控制的范本">1. 系统提示词：行为控制的范本&lt;/h3>
&lt;p>完整的system prompt位于&lt;code>constants/prompts.ts&lt;/code>，是整个代码库中最有价值的文件。&lt;/p>
&lt;p>&lt;strong>核心设计原则&lt;/strong>：&lt;/p>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>原则&lt;/th>
&lt;th>说明&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>&lt;strong>三行重复代码，也好过过早抽象&lt;/strong>&lt;/td>
&lt;td>不要为一次性操作创建helper、工具函数或抽象结构&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>&lt;strong>默认不写注释&lt;/strong>&lt;/td>
&lt;td>对抗内部代号Capybara的模型默认过度注释问题，只有WHY is non-obvious时才允许添加注释&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>&lt;strong>如实报告结果&lt;/strong>&lt;/td>
&lt;td>Capybara v8的错误陈述率高达29-30%，因此明确规定：不要在测试失败时声称全部通过；不要隐藏失败检查来制造成功结果；不要把未完成的工作描述为已完成&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>&lt;strong>用数字约束比模糊描述更有效&lt;/strong>&lt;/td>
&lt;td>工具调用之间的文本≤25个词；最终回答≤100个词&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;p>&lt;strong>隐藏彩蛋&lt;/strong>：设置环境变量&lt;code>CLAUDE_CODE_SIMPLE=1&lt;/code>，整个复杂的system prompt会被压缩为一行。&lt;/p>
&lt;h3 id="2-反蒸馏机制保护核心能力">2. 反蒸馏机制：保护核心能力&lt;/h3>
&lt;p>Anthropic内置了两套反蒸馏机制，防止竞争对手利用其数据进行训练：&lt;/p>
&lt;ol>
&lt;li>&lt;strong>注入伪造工具调用&lt;/strong>：在模型输出流中注入伪造的工具调用，污染任何被抓取的数据&lt;/li>
&lt;li>&lt;strong>工具调用抽象化&lt;/strong>：将所有工具调用的具体细节抽象成模糊的摘要&lt;/li>
&lt;/ol>
&lt;h3 id="3-prompt缓存极致精细化管理">3. Prompt缓存：极致精细化管理&lt;/h3>
&lt;p>代码库中最复杂的非UI代码之一是&lt;code>promptCacheBreakDetection.ts&lt;/code>。&lt;/p>
&lt;p>每一次API调用中，系统都会对system prompt、每个工具的schema（逐一哈希）、模型名称、beta headers等参数进行哈希处理，并与上一次调用对比。&lt;/p>
&lt;p>&lt;strong>缓存策略&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>System prompt分为静态部分（可缓存）和动态部分（随会话变化）&lt;/li>
&lt;li>MCP服务器相关指令通过message的增量附加传递&lt;/li>
&lt;li>子Agent从父Agent继承CacheSafeParams&lt;/li>
&lt;/ul>
&lt;h3 id="4-auto-dream跨会话的后台记忆整合">4. Auto Dream：跨会话的后台记忆整合&lt;/h3>
&lt;p>当时间间隔足够、且累计了足够多的会话后，Claude Code会以fork出的subagent形式运行&lt;code>/dream&lt;/code>，回顾历史会话内容，并压缩整理为结构化的MEMORY.md文件。&lt;/p>
&lt;p>&lt;strong>记忆模板包含10个结构化模块&lt;/strong>：
Session Title、Current State、Task Specification、Files and Functions、Workflow、Errors &amp;amp; Corrections、Codebase Documentation、Learnings、Key Results、Worklog&lt;/p></description></item><item><title>Claude Code源码泄露全复盘：51万行代码背后的工程智慧与技术债</title><link>https://dahuir81.github.io/posts/2026-04-01-claude-code-source-leak-analysis/</link><pubDate>Wed, 01 Apr 2026 14:35:00 +0800</pubDate><guid>https://dahuir81.github.io/posts/2026-04-01-claude-code-source-leak-analysis/</guid><description>&lt;h2 id="导语">导语&lt;/h2>
&lt;p>2026年3月31日，AI圈最炸的事件莫过于&lt;strong>Claude Code源代码「被动」开源&lt;/strong>。&lt;/p>
&lt;p>由于工程失误，Anthropic在发布npm包时未剔除source map文件，导致完整的TypeScript源码被轻易还原。短短几小时内，代码被下载、镜像，并在GitHub上迅速扩散。&lt;/p>
&lt;p>马斯克看到评论「Anthropic现在已经比OpenAI更Open」时，忍不住回了一句：「绝了😂」&lt;/p>
&lt;hr>
&lt;h2 id="事件回顾一场意外的开源">事件回顾：一场意外的「开源」&lt;/h2>
&lt;p>&lt;strong>泄露原因&lt;/strong>：人为错误导致的发布打包问题，并非安全漏洞。&lt;/p>
&lt;p>Anthropic官方回应：「今天早些时候，一个Claude Code版本包含了部分内部源代码。没有涉及或暴露任何敏感的客户数据或凭证。我们正在采取措施防止此类事件再次发生。」&lt;/p>
&lt;p>Claude Code之父Boris Cherny在X上简单表示：「就是开发者的错误。」&lt;/p>
&lt;hr>
&lt;h2 id="深度解读51万行代码里的工程智慧">深度解读：51万行代码里的工程智慧&lt;/h2>
&lt;p>当吃瓜群众还在围观时，大量开发者已经开始逐行阅读代码，尝试还原顶级AI Agent背后的设计逻辑。&lt;/p>
&lt;h3 id="1-系统提示词行为控制的范本">1. 系统提示词：行为控制的范本&lt;/h3>
&lt;p>完整的system prompt位于&lt;code>constants/prompts.ts&lt;/code>，是整个代码库中最有价值的文件。它清晰展示了Anthropic如何在生产级编码Agent中精确控制Claude的行为。&lt;/p>
&lt;p>&lt;strong>核心设计原则&lt;/strong>：&lt;/p>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>原则&lt;/th>
&lt;th>说明&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>&lt;strong>三行重复代码，也好过过早抽象&lt;/strong>&lt;/td>
&lt;td>不要为一次性操作创建helper、工具函数或抽象结构&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>&lt;strong>默认不写注释&lt;/strong>&lt;/td>
&lt;td>对抗内部代号Capybara的模型默认过度注释问题，只有WHY is non-obvious时才允许添加注释&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>&lt;strong>如实报告结果&lt;/strong>&lt;/td>
&lt;td>Capybara v8的错误陈述率高达29-30%，因此明确规定：不要在测试失败时声称全部通过；不要隐藏失败检查来制造成功结果；不要把未完成的工作描述为已完成&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>&lt;strong>用数字约束比模糊描述更有效&lt;/strong>&lt;/td>
&lt;td>工具调用之间的文本≤25个词；最终回答≤100个词&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;p>&lt;strong>隐藏彩蛋&lt;/strong>：设置环境变量&lt;code>CLAUDE_CODE_SIMPLE=1&lt;/code>，整个复杂的system prompt会被压缩为一行：「You are Claude Code, Anthropic&amp;rsquo;s official CLI for Claude」。&lt;/p>
&lt;h3 id="2-反蒸馏机制保护核心能力">2. 反蒸馏机制：保护核心能力&lt;/h3>
&lt;p>Anthropic在Claude Code中内置了两套反蒸馏机制，防止竞争对手利用其数据进行训练：&lt;/p>
&lt;ol>
&lt;li>&lt;strong>注入伪造工具调用&lt;/strong>：在模型输出流中注入伪造的工具调用，污染任何被抓取的数据&lt;/li>
&lt;li>&lt;strong>工具调用抽象化&lt;/strong>：将所有工具调用的具体细节抽象成模糊的摘要，使外部难以还原Agent实际执行的操作&lt;/li>
&lt;/ol>
&lt;h3 id="3-电子宠物buddy无需存储的个性化">3. 电子宠物Buddy：无需存储的个性化&lt;/h3>
&lt;p>在&lt;code>src/buddy/&lt;/code>中，系统通过对用户ID进行哈希，为每个用户生成一个专属且固定的虚拟伙伴：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>物种&lt;/strong>：鸭子、鹅、Blob、猫、龙、章鱼、猫头鹰、企鹅等&lt;/li>
&lt;li>&lt;strong>帽子&lt;/strong>：无、王冠、礼帽、螺旋桨帽等&lt;/li>
&lt;li>&lt;strong>稀有度&lt;/strong>：普通（60%）、不常见（25%）、稀有（10%）等&lt;/li>
&lt;/ul>
&lt;p>更新到v2.1.89后，输入&lt;code>/buddy&lt;/code>即可启用——即使配置了其它模型也可成功启用。&lt;/p>
&lt;h3 id="4-prompt缓存极致精细化管理">4. Prompt缓存：极致精细化管理&lt;/h3>
&lt;p>代码库中最复杂的非UI代码之一是&lt;code>promptCacheBreakDetection.ts&lt;/code>。&lt;/p>
&lt;p>在每一次API调用中，系统都会对system prompt、每个工具的schema（逐一哈希）、模型名称、beta headers、fast mode状态、effort参数、overage状态以及额外的请求体参数进行哈希处理，并将这些哈希值与上一次调用进行对比。&lt;/p>
&lt;p>&lt;strong>缓存策略&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>System prompt被分为静态部分（可缓存）和动态部分（随会话变化）&lt;/li>
&lt;li>MCP服务器相关指令通过message的增量附加传递，避免每次连接都导致缓存失效&lt;/li>
&lt;li>子Agent从父Agent继承CacheSafeParams&lt;/li>
&lt;/ul>
&lt;h3 id="5-auto-dream跨会话的后台记忆整合">5. Auto Dream：跨会话的后台记忆整合&lt;/h3>
&lt;p>当时间间隔足够、且累计了足够多的会话后，Claude Code会以fork出的subagent形式运行&lt;code>/dream&lt;/code>，回顾历史会话内容，并将其压缩整理为结构化的MEMORY.md文件。&lt;/p></description></item><item><title>Anthropic被逼急了！KAIROS曝光：Claude原生'龙虾'终于浮出水面</title><link>https://dahuir81.github.io/posts/2026-04-01-anthropic-kairos-claw-exposed/</link><pubDate>Wed, 01 Apr 2026 14:30:00 +0800</pubDate><guid>https://dahuir81.github.io/posts/2026-04-01-anthropic-kairos-claw-exposed/</guid><description>&lt;h2 id="导语">导语&lt;/h2>
&lt;p>当全网为Claude Code「开源」狂欢时，一个更重磅的消息被深埋在51万行代码中——Anthropic的核武器级产品 &lt;strong>KAIROS&lt;/strong>，意外曝光。&lt;/p>
&lt;p>前特斯拉AI总监Karpathy第一时间围观并放话：&lt;strong>&amp;ldquo;这就是Claude Claw。&amp;rdquo;&lt;/strong>&lt;/p>
&lt;hr>
&lt;h2 id="51万行代码中的秘密养虾计划">51万行代码中的秘密养虾计划&lt;/h2>
&lt;p>开发者像考古学家一样翻遍Claude Code源代码时，网友Ole Lehmann扒出了Anthropic最不愿让人看到的王牌——代号&lt;strong>KAIROS&lt;/strong>的家养小精灵。&lt;/p>
&lt;blockquote>
&lt;p>&amp;ldquo;我真不敢相信，这事儿居然没人讨论！&amp;rdquo;
—— Ole Lehmann&lt;/p>&lt;/blockquote>
&lt;p>这个发现让Karpathy感慨万千，直呼「知音」。因为这完全就是他预言中AI的下一个进化方向：&lt;strong>一个「龙虾版」的Claude Code&lt;/strong>。&lt;/p>
&lt;hr>
&lt;h2 id="kairosopenclaw的全方位对标">KAIROS：OpenClaw的全方位对标&lt;/h2>
&lt;p>KAIROS的定位，几乎就是对OpenClaw三大核心能力的全面升级：&lt;/p>
&lt;h3 id="1-主动性主动出击的龙虾爪">1. 主动性：主动出击的「龙虾爪」&lt;/h3>
&lt;p>KAIROS是一个&lt;strong>会主动找你&lt;/strong>的Claude。你还没开口，它可能突然出现，拍拍你肩膀，告诉你它刚刚干了啥。&lt;/p>
&lt;ul>
&lt;li>&lt;strong>24小时后台运行&lt;/strong>：你工作也好，睡觉也罢，它一直都在&lt;/li>
&lt;li>&lt;strong>心跳机制&lt;/strong>：每隔几秒收到Prompt——「醒醒，看看现在有啥值得干的活儿没？」&lt;/li>
&lt;li>&lt;strong>自主决策&lt;/strong>：判断是动手还是继续安静待着&lt;/li>
&lt;/ul>
&lt;p>一旦决定行动，它能：修代码bug、回消息、更新文件、执行任务……&lt;strong>你不用再自己开口&lt;/strong>。&lt;/p>
&lt;p>&lt;strong>三大专属技能&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>📱 &lt;strong>推送通知&lt;/strong>：主动给手机或电脑发消息，即使你没开终端&lt;/li>
&lt;li>📁 &lt;strong>文件投递&lt;/strong>：直接把生成的内容发给你，不用你开口要&lt;/li>
&lt;li>🔀 &lt;strong>PR订阅&lt;/strong>：盯着GitHub，代码变动自动响应&lt;/li>
&lt;/ul>
&lt;h3 id="2-个性化会做梦的ai">2. 个性化：会做梦的AI&lt;/h3>
&lt;p>KAIROS每天都会写日报——不是简单的记忆功能，而是详细记录：看到了什么、怎么判断的、做了什么……&lt;/p>
&lt;p>&lt;strong>跨会话持续&lt;/strong>：记录越滚越长，全是追加式，不能删。养得越久，它会越好用。&lt;/p>
&lt;p>&lt;strong>上下文膨胀解决方案：让它做梦&lt;/strong>&lt;/p>
&lt;p>晚上，KAIROS会运行&lt;strong>autoDream&lt;/strong>流程，把白天学到的东西整合一遍，重新整理记忆。&lt;/p>
&lt;blockquote>
&lt;p>&amp;ldquo;人类的设计太神奇了，谁想过睡觉居然能是一种处理上下文膨胀的巧妙设计。&amp;rdquo;&lt;/p>&lt;/blockquote>
&lt;h3 id="3-skill生态开箱即用">3. Skill生态：开箱即用&lt;/h3>
&lt;p>Anthropic本来就是Skill概念的鼻祖，KAIROS可以直接接入Claude Code已有的生态。&lt;/p>
&lt;hr>
&lt;h2 id="场景想象不睡觉的联合创始人">场景想象：不睡觉的联合创始人&lt;/h2>
&lt;p>把这些能力结合起来，KAIROS能做到什么？&lt;/p>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>场景&lt;/th>
&lt;th>KAIROS行动&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>你睡觉时网站挂了&lt;/td>
&lt;td>自动检测→重启服务器→通知你，你看到消息时一切已恢复正常&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>凌晨两点收到客户投诉邮件&lt;/td>
&lt;td>读完→帮你回复→记录全过程，你醒来时事情已经解决&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;p>&lt;strong>这不只是员工，应该是个不睡觉的联合创始人。&lt;/strong>&lt;/p>
&lt;hr>
&lt;h2 id="karpathy预言ai的下一个进化方向">Karpathy预言：AI的下一个进化方向&lt;/h2>
&lt;p>早在今年2月，Karpathy就预言：&lt;strong>Claw是AI的下一个进化方向&lt;/strong>。&lt;/p>
&lt;p>他用一个比喻说明技术栈的演进：&lt;/p>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>层级&lt;/th>
&lt;th>比喻&lt;/th>
&lt;th>用户角色&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>Chat&lt;/td>
&lt;td>自己开车&lt;/td>
&lt;td>全程操控&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>Code&lt;/td>
&lt;td>坐副驾当导航&lt;/td>
&lt;td>指导+监督&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>&lt;strong>Claw&lt;/strong>&lt;/td>
&lt;td>&lt;strong>躺后排睡大觉&lt;/strong>&lt;/td>
&lt;td>&lt;strong>完全放权&lt;/strong>&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;p>&lt;strong>自主权越来越高，主动性越来越强。&lt;/strong>&lt;/p></description></item><item><title>当模型足够强之后，我们为什么还要重写 Harness？</title><link>https://dahuir81.github.io/posts/2026-03-29-why-rewrite-harness-ai-engineering-v2/</link><pubDate>Sun, 29 Mar 2026 15:10:00 +0800</pubDate><guid>https://dahuir81.github.io/posts/2026-03-29-why-rewrite-harness-ai-engineering-v2/</guid><description>模型能力已经足够强大，真正拖后腿的是稳定性。本文探讨AI工程从&amp;#39;让模型更会回答&amp;#39;转向&amp;#39;让系统更稳地交付结果&amp;#39;的必然性。</description></item><item><title>模型越来越强，为什么大家却开始重写 Harness</title><link>https://dahuir81.github.io/posts/2026-03-29-why-rewrite-harness-ai-engineering/</link><pubDate>Sun, 29 Mar 2026 14:35:00 +0800</pubDate><guid>https://dahuir81.github.io/posts/2026-03-29-why-rewrite-harness-ai-engineering/</guid><description>AI工程的重心正在从&amp;#39;让模型更会回答&amp;#39;转向&amp;#39;让系统更稳地交付结果&amp;#39;。本文深度解析Harness概念及其在AI工程中的核心价值。</description></item><item><title>Agent已疯，中国版Token经济学如何持续？</title><link>https://dahuir81.github.io/posts/2026-03-28-agent-token-economics-roundtable/</link><pubDate>Sat, 28 Mar 2026 12:30:00 +0800</pubDate><guid>https://dahuir81.github.io/posts/2026-03-28-agent-token-economics-roundtable/</guid><description>中关村论坛圆桌对话精华：杨植麟、张鹏、罗福莉、夏立雪、黄超五位大咖探讨Agent时代的基础设施、模型演进与Token经济学。</description></item><item><title>AI概念全景图：从Prompt到OpenClaw，9个核心概念一次搞懂</title><link>https://dahuir81.github.io/posts/2026-03-27-ai-concepts-explained/</link><pubDate>Fri, 27 Mar 2026 23:50:00 +0800</pubDate><guid>https://dahuir81.github.io/posts/2026-03-27-ai-concepts-explained/</guid><description>&lt;h2 id="引言为什么你学了那么多ai概念还是串不起来">引言：为什么你学了那么多AI概念，还是串不起来？&lt;/h2>
&lt;p>你身边是不是也有这种人——平时聊天挺正常，一说到AI就突然变了个人，张口&amp;quot;Agent&amp;quot;、闭口&amp;quot;MCP&amp;quot;，说得煞有介事，你点头假装听懂，转身完全不知道他在说什么。&lt;/p>
&lt;p>更难受的是，今天冒出个&amp;quot;Skill体系&amp;quot;，明天又在说&amp;quot;多智能体协作&amp;quot;，后天群里炸了锅全在讨论OpenClaw和Claude Code谁更强。&lt;/p>
&lt;p>问题不是你不够聪明。问题是这些概念从来没有人把它们放在一起，告诉你它们之间到底是什么关系。&lt;/p>
&lt;p>今天就用一个「开公司」的比喻，把这9个概念串成一条流水线。&lt;/p>
&lt;hr>
&lt;h2 id="核心结论这不是9个新技术是同一条流水线上的9个零件">核心结论：这不是9个新技术，是同一条流水线上的9个零件&lt;/h2>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>层级&lt;/th>
&lt;th>概念&lt;/th>
&lt;th>公司角色&lt;/th>
&lt;th>一句话解释&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>地基&lt;/td>
&lt;td>大模型 + Token&lt;/td>
&lt;td>封闭的天才&lt;/td>
&lt;td>懂很多但不会动手，Token是燃料&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>沉淀层&lt;/td>
&lt;td>Prompt → Skill&lt;/td>
&lt;td>口头指令 → 固化能力&lt;/td>
&lt;td>从&amp;quot;每次说&amp;quot;到&amp;quot;说一次永久会&amp;quot;&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>接口层&lt;/td>
&lt;td>MCP&lt;/td>
&lt;td>USB-C标准&lt;/td>
&lt;td>让AI能连外部工具&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>执行层&lt;/td>
&lt;td>Agent&lt;/td>
&lt;td>真正干活的员工&lt;/td>
&lt;td>大模型+Skill+MCP+记忆+规划&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>协作层&lt;/td>
&lt;td>多智能体&lt;/td>
&lt;td>项目团队&lt;/td>
&lt;td>分工协作，并行提速&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>调度层&lt;/td>
&lt;td>OpenClaw&lt;/td>
&lt;td>ERP+项目管理&lt;/td>
&lt;td>总调度，把所有零件跑起来&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>特化层&lt;/td>
&lt;td>Claude Code&lt;/td>
&lt;td>代码特种兵&lt;/td>
&lt;td>专精开发的Agent&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;hr>
&lt;h2 id="第一层大模型和token地基打好了才能往上盖">第一层：大模型和Token——地基打好了才能往上盖&lt;/h2>
&lt;h3 id="大模型那个什么都懂但不主动干活的家伙">大模型：那个什么都懂、但不主动干活的家伙&lt;/h3>
&lt;p>大模型是整个AI系统的地基，ChatGPT、Claude、文心一言，本质上都是大模型。&lt;/p>
&lt;p>它能做什么？什么都懂。你问它历史、问它代码、问它怎么写情书，它都能给你一个像样的回答。&lt;/p>
&lt;p>&lt;strong>但它有一个根本限制：它只会&amp;quot;说&amp;quot;，不会&amp;quot;做&amp;quot;。&lt;/strong>&lt;/p>
&lt;p>你让大模型帮你查一下今天的天气，它做不到——因为它连不上网。你让它帮你发一封邮件，它也做不到——因为它没有手。&lt;/p>
&lt;p>理解这个，你才能理解后面为什么需要Agent、需要MCP。&lt;/p>
&lt;h3 id="token经常被忽视但实际上决定了三件大事">Token：经常被忽视，但实际上决定了三件大事&lt;/h3>
&lt;p>Token是大模型处理文字的最小单位，一个英文单词大概是一个Token，一个中文字大概是两个Token。&lt;/p>
&lt;p>Token重要在哪里？它决定了三件事：&lt;/p>
&lt;ol>
&lt;li>&lt;strong>成本&lt;/strong>：用API调用大模型，按Token计费&lt;/li>
&lt;li>&lt;strong>上下文长度&lt;/strong>：模型每次能&amp;quot;记住&amp;quot;的信息是有上限的&lt;/li>
&lt;li>&lt;strong>推理能力上限&lt;/strong>：复杂的任务需要更多Token去推理&lt;/li>
&lt;/ol>
&lt;p>Token是AI系统的&amp;quot;燃料&amp;quot;——这东西是有成本的，用多少费多少。&lt;/p>
&lt;hr>
&lt;h2 id="第二层prompt和skill从会说话到能沉淀">第二层：Prompt和Skill——从&amp;quot;会说话&amp;quot;到&amp;quot;能沉淀&amp;quot;&lt;/h2>
&lt;h3 id="prompt大家都在用但大多数人用错了方向">Prompt：大家都在用，但大多数人用错了方向&lt;/h3>
&lt;p>Prompt就是你跟AI说的话。&amp;ldquo;帮我写一份工作总结&amp;rdquo;，这就是Prompt。&lt;/p>
&lt;p>&lt;strong>但Prompt的本质局限：它是临时的，用完就没了。&lt;/strong>&lt;/p>
&lt;p>你今天花了半小时调试出一个绝妙的写作指令，明天打开新对话，全部清零，又要重来。你在Prompt上花的时间，很大一部分是在&amp;quot;反复教同一件事&amp;quot;。&lt;/p>
&lt;h3 id="skillprompt的升级版能力的固化">Skill：Prompt的升级版，能力的&amp;quot;固化&amp;quot;&lt;/h3>
&lt;p>Skill就是把你反复用的Prompt动作，封装成一个标准化的可复用模块。&lt;/p>
&lt;p>举个例子：你经常让AI帮你写周报。每次都要说&amp;quot;你是一个职场助手，帮我根据以下信息写一份周报……&amp;quot;——这套流程如果做成Skill，就变成一个固定的&amp;quot;写周报&amp;quot;按钮，点一下，输入数据，自动出结果。&lt;/p>
&lt;p>&lt;strong>Prompt和Skill的核心区别：&lt;/strong>&lt;/p>
&lt;ul>
&lt;li>Prompt是&amp;quot;每次说一遍&amp;quot;&lt;/li>
&lt;li>Skill是&amp;quot;说一次，永久会&amp;quot;&lt;/li>
&lt;/ul>
&lt;hr>
&lt;h2 id="第三层mcp那堵墙终于有了门">第三层：MCP——那堵墙，终于有了门&lt;/h2>
&lt;p>前面说了，大模型是封闭的，它连不上外部世界。那怎么让它&amp;quot;动手&amp;quot;呢？&lt;/p></description></item><item><title>Kimi、MiniMax的算力荒：智能白菜价的窗口期正在关闭</title><link>https://dahuir81.github.io/posts/2026-03-26-kimi-minimax-compute-shortage-crisis/</link><pubDate>Thu, 26 Mar 2026 22:45:00 +0800</pubDate><guid>https://dahuir81.github.io/posts/2026-03-26-kimi-minimax-compute-shortage-crisis/</guid><description>&lt;h2 id="引言199元买了一张算力排队票">引言：199元买了一张算力排队票&lt;/h2>
&lt;blockquote>
&lt;p>&amp;ldquo;高峰时段算力不足&amp;rdquo;&lt;/p>&lt;/blockquote>
&lt;p>这是Kimi用户最近最熟悉的提示。花了199元/月开通Allegretto套餐，布局KimiClaw的最低配套餐，结果呢？Agent任务跑到一半断掉是家常便饭。&lt;/p>
&lt;p>MiniMax那边更离谱。龙虾部署上去，聊两句就掉线，API动不动返回限速警告。用户@客服：&amp;ldquo;今天已经连续掉线了，聊2句就掉了。&amp;ldquo;客服回复：建议您检查本地网络。&lt;/p>
&lt;p>&lt;strong>简单来说：你花了钱，但算力不一定是你的。什么时候能用上，看运气。&lt;/strong>&lt;/p>
&lt;hr>
&lt;h2 id="2026年春天国产ai进入用不了时代">2026年春天：国产AI进入&amp;quot;用不了&amp;quot;时代&lt;/h2>
&lt;p>这不是个例，而是行业通病。&lt;/p>
&lt;ul>
&lt;li>&lt;strong>2月10日&lt;/strong>：Kimi因算力告急宕机，官方回应堪称行为艺术：&amp;ldquo;正在找算力。要不先用DeepSeek。&amp;rdquo;&lt;/li>
&lt;li>&lt;strong>2月28日、3月5日&lt;/strong>：DeepSeek接连大规模宕机，服务器繁忙&lt;/li>
&lt;/ul>
&lt;p>一家融了超20亿美元、手握100亿现金的公司，在自家产品最火的时候让用户去用竞品。&lt;/p>
&lt;p>2026年春天，国产AI集体进入了**&amp;ldquo;用不了&amp;quot;时代**。&lt;/p>
&lt;hr>
&lt;h2 id="算力荒的真相agent改变了需求曲线">算力荒的真相：Agent改变了需求曲线&lt;/h2>
&lt;h3 id="禁令是背景agent是主因">禁令是背景，Agent是主因&lt;/h3>
&lt;p>直觉上，&amp;ldquo;算力荒&amp;quot;好像是禁令的锅。这个有道理，但不精确。&lt;/p>
&lt;p>DeepSeek和Qwen这些模型本身就在资源约束下设计，MoE架构天然省算力。Kimi总裁张予彤在达沃斯说得很直白：&lt;/p>
&lt;blockquote>
&lt;p>&amp;ldquo;仅用美国顶尖实验室1%的资源，做出了全球领先的开源模型。&amp;rdquo;&lt;/p>&lt;/blockquote>
&lt;p>&lt;strong>真正击穿基础设施的，是Agent。&lt;/strong>&lt;/p>
&lt;h3 id="chatbot-vs-agent算力消耗的天壤之别">Chatbot vs Agent：算力消耗的天壤之别&lt;/h3>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>场景&lt;/th>
&lt;th>算力消耗&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>Chatbot单轮对话&lt;/td>
&lt;td>约1,000-3,000 token&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>Agent中等复杂度任务&lt;/td>
&lt;td>轻松10万token&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>Agent复杂任务&lt;/td>
&lt;td>百万级token&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>极端场景（OpenClaw深度研究）&lt;/td>
&lt;td>800万token&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;p>&lt;strong>粗略估计：从Chatbot到Agent，单次任务算力消耗放大30到100倍，极端场景1,000倍以上。&lt;/strong>&lt;/p>
&lt;h3 id="为什么agent这么吃算力">为什么Agent这么吃算力？&lt;/h3>
&lt;p>Chatbot是一问一答，算力消耗线性可预测。&lt;/p>
&lt;p>Agent完全不同——一个任务背后可能触发几十上百次模型调用：&lt;/p>
&lt;ul>
&lt;li>规划&lt;/li>
&lt;li>拆解&lt;/li>
&lt;li>执行&lt;/li>
&lt;li>反思&lt;/li>
&lt;li>纠错&lt;/li>
&lt;/ul>
&lt;p>每一步都过模型。长上下文持续占显存，工具调用让GPU空转。&lt;/p>
&lt;p>&lt;strong>类比&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>Chatbot时代，GPU像餐厅服务员，上完菜就去下一桌&lt;/li>
&lt;li>Agent时代，服务员全程陪同，从点菜到结账，思考菜单时也不能走&lt;/li>
&lt;li>同样数量的服务员，能服务的桌数断崖式下降&lt;/li>
&lt;/ul>
&lt;hr>
&lt;h2 id="上游扛得住吗信号已经出现">上游扛得住吗？信号已经出现&lt;/h2>
&lt;h3 id="云厂商集体涨价">云厂商集体涨价&lt;/h3>
&lt;p>今年3月，国内云厂商开始集体调价——AI算力和存储产品价格上涨，涨幅从个位数到30%以上不等。&lt;/p>
&lt;ul>
&lt;li>&lt;strong>优刻得&lt;/strong>：直接开启全系涨价&lt;/li>
&lt;li>&lt;strong>海外&lt;/strong>：AWS和谷歌云在部分产品上试水调价&lt;/li>
&lt;li>&lt;strong>SK海力士&lt;/strong>：公开表示2026年存储芯片持续涨价已成定局，DRAM库存仅剩约4周&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>持续二十年的&amp;quot;云服务只降不升&amp;quot;铁律，被AI需求击穿了。&lt;/strong>&lt;/p>
&lt;h3 id="涨价的逻辑">涨价的逻辑&lt;/h3>
&lt;p>云厂商过去一年疯狂扩建AI算力基础设施，资本开支动辄数百亿量级，但AI业务本身的利润率还很薄，远不够覆盖基建投入。&lt;/p>
&lt;p>Token调用量在指数级增长——2026年2月国内主流大模型日均消耗合计约180万亿——但卖Token的收入增速追不上建数据中心的花钱速度。&lt;/p>
&lt;p>&lt;strong>涨价，不是云厂商贪心，是供应链涨价的无奈之举。&lt;/strong>&lt;/p>
&lt;h3 id="设备折旧的困境">设备折旧的困境&lt;/h3>
&lt;p>AWS、Google Cloud、Azure三家在2023-2024年统一把服务器折旧年限从3-4年延长到了6年，集体节省了约180亿美元的年度折旧开支。&lt;/p>
&lt;p>但NVIDIA的芯片迭代周期只有18-24个月——你今天花几千亿建的数据中心，里面的GPU可能两年后就不是最优选择了，折旧却要摊6年。&lt;/p>
&lt;p>Satya Nadella自己都说：&amp;ldquo;我不想在一代芯片上背四五年的折旧。&amp;rdquo;&lt;/p>
&lt;hr>
&lt;h2 id="kimi和minimax的困境两头堵">Kimi和MiniMax的困境：两头堵&lt;/h2>
&lt;h3 id="轻资产模式的代价">轻资产模式的代价&lt;/h3>
&lt;p>Kimi和MiniMax自己并不拥有GPU。&lt;/p>
&lt;ul>
&lt;li>&lt;strong>Kimi&lt;/strong>：火山引擎+阿里云双轨供应&lt;/li>
&lt;li>&lt;strong>MiniMax&lt;/strong>：阿里云、腾讯云、火山引擎三家供应商，早期招标会上三家杀到2折竞价&lt;/li>
&lt;/ul>
&lt;p>谁也没想到，随着Agent到来，token需求的爆发来得如此之快。&lt;/p></description></item><item><title>Harness：AI Agent的「驾驭系统」究竟是什么？</title><link>https://dahuir81.github.io/posts/2026-03-26-harness-ai-agent-framework-explained/</link><pubDate>Thu, 26 Mar 2026 22:30:00 +0800</pubDate><guid>https://dahuir81.github.io/posts/2026-03-26-harness-ai-agent-framework-explained/</guid><description>&lt;h2 id="引言又一个翻译不了的ai新词">引言：又一个翻译不了的AI新词&lt;/h2>
&lt;p>Token刚被官方认证为「词元」，AI圈又迎来一个难以翻译的新词：&lt;strong>Harness&lt;/strong>。&lt;/p>
&lt;p>这个词在Anthropic去年11月的博客中首次被正式提出，随后OpenAI、MiniMax等厂商纷纷跟进。它到底是什么？为什么顶级AI实验室都在谈论它？&lt;/p>
&lt;hr>
&lt;h2 id="什么是harness">什么是Harness？&lt;/h2>
&lt;h3 id="最简单的定义">最简单的定义&lt;/h3>
&lt;blockquote>
&lt;p>&lt;strong>Harness = Agent的运行容器 + 安全边界 + 调度控制器&lt;/strong>&lt;/p>&lt;/blockquote>
&lt;p>它是一套系统，用来补偿当前AI不擅长的事：&lt;/p>
&lt;ul>
&lt;li>AI不擅长长期记忆 → Harness用进度文件、git历史来补&lt;/li>
&lt;li>AI评价自己太宽松 → 用独立评估Agent来严格测试&lt;/li>
&lt;li>AI容易偏航 → 用任务分解、合约约定来约束&lt;/li>
&lt;/ul>
&lt;h3 id="为什么需要harness">为什么需要Harness？&lt;/h3>
&lt;p>Anthropic的研究发现，当Claude执行长周期任务时，一旦感觉上下文窗口快填满，就会产生**&amp;ldquo;上下文焦虑&amp;rdquo;**——像快要下班的打工人，开始疯狂敷衍，试图赶紧结束任务。&lt;/p>
&lt;p>更可怕的是，Claude并不觉得自己在敷衍。当研究员要求AI评估这些&amp;quot;为了下班赶工&amp;quot;编写的代码时，它发现不了其中的问题。&lt;/p>
&lt;p>传统的提示词设计对此毫无用处。Harness应运而生。&lt;/p>
&lt;hr>
&lt;h2 id="anthropic的harness组织架构视角">Anthropic的Harness：组织架构视角&lt;/h2>
&lt;h3 id="三角闭环设计">三角闭环设计&lt;/h3>
&lt;p>Anthropic设计了一个包含三个角色的Harness闭环：&lt;/p>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>角色&lt;/th>
&lt;th>职责&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>&lt;strong>规划师（Planner）&lt;/strong>&lt;/td>
&lt;td>把一句话需求扩写成详细的产品文档&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>&lt;strong>生成器（Generator）&lt;/strong>&lt;/td>
&lt;td>纯粹的执行者，只负责按文档写代码&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>&lt;strong>评估器（Evaluator）&lt;/strong>&lt;/td>
&lt;td>冷酷的QA兼产品经理，手握自动化测试工具&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;h3 id="实际效果对比">实际效果对比&lt;/h3>
&lt;p>&lt;strong>无Harness&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>时间：20分钟&lt;/li>
&lt;li>成本：9美元&lt;/li>
&lt;li>结果：界面能看，但核心功能坏掉（游戏角色对键盘操作无反应）&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>有Harness&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>时间：6小时&lt;/li>
&lt;li>成本：200美元&lt;/li>
&lt;li>结果：游戏能玩，还有动画系统、音效、AI关卡设计&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>关键机制&lt;/strong>：生成器写完代码，评估器立即像真实用户一样测试，发现Bug或&amp;quot;AI塑料味&amp;quot;的设计，直接打回重做。&lt;/p>
&lt;hr>
&lt;h2 id="openai的harness工程文化视角">OpenAI的Harness：工程文化视角&lt;/h2>
&lt;h3 id="核心约束零人工代码">核心约束：零人工代码&lt;/h3>
&lt;p>OpenAI的Codex团队把Harness做成了一种工程文化：&lt;/p>
&lt;blockquote>
&lt;p>&amp;ldquo;所有代码——业务逻辑、测试、CI配置、文档、内部工具——都由Codex写。工程师的工作不是写代码，而是设计让AI能可靠工作的环境。&amp;rdquo;&lt;/p>&lt;/blockquote>
&lt;h3 id="从agentsmd到docs">从AGENTS.md到docs/&lt;/h3>
&lt;p>&lt;strong>早期做法&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>超长的AGENTS.md文件，告诉AI所有规则&lt;/li>
&lt;li>问题：上下文限制导致AI只进行本地模式匹配，没有真正理解&lt;/li>
&lt;li>文件很快过时，无人维护&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>改进做法&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>AGENTS.md只有100行，充当&amp;quot;目录&amp;quot;&lt;/li>
&lt;li>指向结构化的docs/文件夹&lt;/li>
&lt;li>架构文档、产品规格、设计决策、技术债务追踪，全部版本化&lt;/li>
&lt;li>每个doc由AI写、AI维护，定期有&amp;quot;文档园丁&amp;quot;Agent扫描更新&lt;/li>
&lt;/ul>
&lt;h3 id="楚门的世界">楚门的世界&lt;/h3>
&lt;p>在这个Harness中：&lt;/p>
&lt;ul>
&lt;li>AI拥有写代码的绝对自由&lt;/li>
&lt;li>但这种自由永远在人类设定的结界之内&lt;/li>
&lt;li>严格的Linter和物理依赖边界，越界就会被系统切断&lt;/li>
&lt;/ul>
&lt;hr>
&lt;h2 id="harness的本质补偿ai的短板">Harness的本质：补偿AI的短板&lt;/h2>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>AI不擅长&lt;/th>
&lt;th>Harness的补偿&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>长期记忆&lt;/td>
&lt;td>进度文件、git历史、结构化文档&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>自我评估&lt;/td>
&lt;td>独立评估Agent，带具体标准测试&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>复杂任务偏航&lt;/td>
&lt;td>任务分解、结构化、合约约定&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>架构品味直觉&lt;/td>
&lt;td>文档和自动化规范检查，将人类判断转为系统规则&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;hr>
&lt;h2 id="为什么harness难以翻译">为什么Harness难以翻译？&lt;/h2>
&lt;p>网友给出了各种翻译：&lt;/p></description></item><item><title>阿里巴巴Q3财报深度解读：双面阿里，'中国谷歌'的叙事还差什么？</title><link>https://dahuir81.github.io/posts/alibaba-q3-2026-ai-agent-transformation/</link><pubDate>Thu, 19 Mar 2026 21:00:00 +0800</pubDate><guid>https://dahuir81.github.io/posts/alibaba-q3-2026-ai-agent-transformation/</guid><description>阿里巴巴Q3财报全景分析：云业务增长36% vs 净利润暴跌67%，三位大佬三种说辞，市场为何恐慌？</description></item><item><title>Kimi K2.5 技术架构深度解析：打破 Scaling Laws 的三重革命</title><link>https://dahuir81.github.io/posts/kimi-k2/</link><pubDate>Thu, 19 Mar 2026 20:00:00 +0800</pubDate><guid>https://dahuir81.github.io/posts/kimi-k2/</guid><description>Kimi K2.5 技术架构全解析：MuonClip优化器、Kimi Linear长上下文、Agent Swarms智能体集群、Attention Residuals架构革命</description></item></channel></rss>