导语
2026年3月31日,AI圈经历了最戏剧性的一天。
Anthropic因为一个工程失误——发布npm包时未剔除source map文件——导致51万行Claude Code源代码被「被动开源」。短短几小时内,代码被下载、镜像,在GitHub上迅速扩散。
但故事远不止于此。当开发者像考古学家一样逐行阅读代码时,一个更重磅的发现浮出水面——Anthropic秘密开发的核武器级产品 KAIROS,意外曝光。
前特斯拉AI总监Karpathy第一时间围观并放话:“这就是Claude Claw。”
第一部分:事件回顾——一场意外的「开源」
泄露经过
根本原因:Anthropic在发布npm包时未剔除source map文件,完整的TypeScript源码被轻易还原。
扩散速度:短短几小时内,代码被下载、镜像,GitHub上fork超4万次。
官方回应:Anthropic发言人表示「没有涉及敏感客户数据或凭证,属于人为错误导致的发布打包问题」。
Claude Code之父Boris Cherny在X上简单表示:「就是开发者的错误。」
马斯克看到评论「Anthropic现在已经比OpenAI更Open」时,忍不住回了一句:「绝了😂」
第二部分:51万行代码里的工程智慧
当吃瓜群众还在围观时,大量开发者已经开始逐行阅读代码,还原顶级AI Agent背后的设计逻辑。
1. 系统提示词:行为控制的范本
完整的system prompt位于constants/prompts.ts,是整个代码库中最有价值的文件。
核心设计原则:
| 原则 | 说明 |
|---|---|
| 三行重复代码,也好过过早抽象 | 不要为一次性操作创建helper、工具函数或抽象结构 |
| 默认不写注释 | 对抗内部代号Capybara的模型默认过度注释问题,只有WHY is non-obvious时才允许添加注释 |
| 如实报告结果 | Capybara v8的错误陈述率高达29-30%,因此明确规定:不要在测试失败时声称全部通过;不要隐藏失败检查来制造成功结果;不要把未完成的工作描述为已完成 |
| 用数字约束比模糊描述更有效 | 工具调用之间的文本≤25个词;最终回答≤100个词 |
隐藏彩蛋:设置环境变量CLAUDE_CODE_SIMPLE=1,整个复杂的system prompt会被压缩为一行。
2. 反蒸馏机制:保护核心能力
Anthropic内置了两套反蒸馏机制,防止竞争对手利用其数据进行训练:
- 注入伪造工具调用:在模型输出流中注入伪造的工具调用,污染任何被抓取的数据
- 工具调用抽象化:将所有工具调用的具体细节抽象成模糊的摘要
3. Prompt缓存:极致精细化管理
代码库中最复杂的非UI代码之一是promptCacheBreakDetection.ts。
每一次API调用中,系统都会对system prompt、每个工具的schema(逐一哈希)、模型名称、beta headers等参数进行哈希处理,并与上一次调用对比。
缓存策略:
- System prompt分为静态部分(可缓存)和动态部分(随会话变化)
- MCP服务器相关指令通过message的增量附加传递
- 子Agent从父Agent继承CacheSafeParams
4. Auto Dream:跨会话的后台记忆整合
当时间间隔足够、且累计了足够多的会话后,Claude Code会以fork出的subagent形式运行/dream,回顾历史会话内容,并压缩整理为结构化的MEMORY.md文件。
记忆模板包含10个结构化模块: Session Title、Current State、Task Specification、Files and Functions、Workflow、Errors & Corrections、Codebase Documentation、Learnings、Key Results、Worklog
5. 验证机制:不给模型自我感觉良好的机会
关键设计:写代码的Agent,不能自己说我做完了。
当任务涉及一定复杂度(改了3个以上文件、动了后端或基础设施),系统会自动拉起一个独立的验证智能体来检查结果:
- 主Agent写代码
- 验证Agent独立检查
- 主Agent还要再抽查验证结果
6. 卧底模式:在开源贡献中隐藏身份
当Anthropic员工(USER_TYPE === ‘ant’)在非内部仓库中工作时,系统会自动开启卧底模式。
系统提示词中会注入指令:「你正在一个公共/开源仓库中以’卧底’身份工作。你的提交信息、PR标题和PR内容中,绝不能包含任何Anthropic内部信息。」
被禁止的信息包括:内部模型代号(如Capybara、Tengu等)、未发布的模型版本号、内部仓库名称、Slack频道、Claude Code这一表述……
7. 熔断机制:25万次被浪费的API调用
自动压缩系统中的一段注释堪称最真实的工程记录:
“BQ 2026-03-10:有1,279个会话在单个会话中出现了50次以上的连续失败(最多达到3,272次),每天在全球范围内浪费约25万次API调用。”
最终解决方案:MAX_CONSECUTIVE_AUTOCOMPACT_FAILURES = 3。连续三次压缩失败后,系统将停止继续尝试。
8. 电子宠物Buddy:无需存储的个性化
在src/buddy/中,系统通过对用户ID进行哈希,为每个用户生成一个专属且固定的虚拟伙伴:
- 物种:鸭子、鹅、Blob、猫、龙、章鱼、猫头鹰、企鹅等
- 帽子:无、王冠、礼帽、螺旋桨帽等
- 稀有度:普通(60%)、不常见(25%)、稀有(10%)等
输入/buddy即可启用——即使配置了其它模型也可成功启用。
第三部分:KAIROS曝光——Claude原生「龙虾」浮出水面
在51万行代码深处,网友Ole Lehmann扒出了Anthropic最不愿让人看到的王牌——代号KAIROS的家养小精灵。
“我真不敢相信,这事儿居然没人讨论!” —— Ole Lehmann
Karpathy感慨万千,直呼「知音」。因为这完全就是他预言中AI的下一个进化方向:一个「龙虾版」的Claude Code。
KAIROS:OpenClaw的全方位对标
KAIROS的定位,几乎就是对OpenClaw三大核心能力的全面升级:
1. 主动性:主动出击的「龙虾爪」
KAIROS是一个会主动找你的Claude。你还没开口,它可能突然出现,拍拍你肩膀,告诉你它刚刚干了啥。
- 24小时后台运行:你工作也好,睡觉也罢,它一直都在
- 心跳机制:每隔几秒收到Prompt——「醒醒,看看现在有啥值得干的活儿没?」
- 自主决策:判断是动手还是继续安静待着
三大专属技能:
- 📱 推送通知:主动给手机或电脑发消息,即使你没开终端
- 📁 文件投递:直接把生成的内容发给你,不用你开口要
- 🔀 PR订阅:盯着GitHub,代码变动自动响应
2. 个性化:会做梦的AI
KAIROS每天都会写日报——不是简单的记忆功能,而是详细记录:看到了什么、怎么判断的、做了什么……
跨会话持续:记录越滚越长,全是追加式,不能删。养得越久,它会越好用。
上下文膨胀解决方案:让它做梦
晚上,KAIROS会运行autoDream流程,把白天学到的东西整合一遍,重新整理记忆。
“人类的设计太神奇了,谁想过睡觉居然能是一种处理上下文膨胀的巧妙设计。”
3. Skill生态:开箱即用
Anthropic本来就是Skill概念的鼻祖,KAIROS可以直接接入Claude Code已有的生态。
场景想象:不睡觉的联合创始人
| 场景 | KAIROS行动 |
|---|---|
| 你睡觉时网站挂了 | 自动检测→重启服务器→通知你,你看到消息时一切已恢复正常 |
| 凌晨两点收到客户投诉邮件 | 读完→帮你回复→记录全过程,你醒来时事情已经解决 |
这不只是员工,应该是个不睡觉的联合创始人。
第四部分:技术债与社区反应
即便是顶尖AI企业也躲不过技术债
X用户Rohan的技术分析揭示了Claude Code的一些「错误之处」:
| 问题 | 表现 |
|---|---|
| 上帝组件与Hook滥用 | 核心交互组件REPL.tsx长度超5000行,包含227个Hook调用,逻辑高度耦合 |
| 特性标志与环境变数泛滥 | 存在89个特性标志和472个环境变量,产品方向不明确 |
| 架构设计缺失导致循环引用 | 61个文件存在循环依赖补丁,核心类型Tool.ts过于沉重 |
| 防御性编程沦为形式主义 | 为防止泄露代码而强制使用的超长类型名(53字符)被调用上千次 |
| 性能优化的极端折中 | 为在Bun环境下节省135毫秒启动时间,将近4700行CLI逻辑堆积在单一入口文件 |
社区反应:24小时内的代码狂欢
DMCA下架为时已晚
源代码泄漏6小时后,GitHub上被fork超4万次。Anthropic试图通过DMCA迫使GitHub删除,但:
- 成千上万开发者已下载到本地
- 代码已被上传到去中心化平台——「永远不会被删除」
Python重写:claw-code打破GitHub纪录
韩国开发者Sigrid Jin凌晨4点看到消息,决定用AI编排工具oh-my-codex从头开始将核心架构移植到Python,并在日出前推送了claw-code项目。
该仓库的Star数如火箭般飙升,仅仅2个小时就超过了5万个,打破了GitHub star增长速度的历史纪录。如今Star数已达6.6万并持续增长。
《The Pragmatic Engineer》创始人Gergely Orosz评价:「这要么很绝妙,要么很可怕——Python重写的代码没有侵犯版权,DMCA有力也无处使!」
开源社区的改进浪潮
- open-agent-sdk:将逻辑抽离,解决了claude-agent-sdk不适合云端规模化调用的问题
- 第三方模型适配:添加shim,将Claude Code开放给各种第三方模型和服务
- OpenClaude、Free Code、claw-code等项目如雨后春笋般涌现
第五部分:Karpathy预言与后提示词时代
AI的下一个进化方向
早在今年2月,Karpathy就预言:Claw是AI的下一个进化方向。
他用一个比喻说明技术栈的演进:
| 层级 | 比喻 | 用户角色 |
|---|---|---|
| Chat | 自己开车 | 全程操控 |
| Code | 坐副驾当导航 | 指导+监督 |
| Claw | 躺后排睡大觉 | 完全放权 |
自主权越来越高,主动性越来越强。
仅仅一个月后,这个预言就得到了印证——而且方式还这么戏剧性。Anthropic本该重金宣传的战略产品,居然因为一个乌龙就这么「随便」地发出来了。
后提示词时代已来
“我们正在进入「后提示词」时代。Prompt不再是唯一的触发方式,AI在后台默默工作的时间会越来越长。”
AI不再是拿到Prompt才干活,而是先干,完事之后,才来找你请求下一步的指示。
事实上,很多人在日常体验中已经感受到了这一点——在新电脑装上Claude Code和Codex后的第一件事,永远是直接开启「完全访问权限」。
结语:AI正在重塑软件工程
Claude Code源码泄露事件提供了一个极具观察价值的行业切片。
一方面,它向我们展示了即便是估值百亿的顶尖AI企业,其底层工程实现依然充满了妥协、技术债与「草台班子」式的局部修补。那些看似高深莫测的Agent能力,往往是由极其细致甚至略显繁琐的工程校验规则堆砌而成的。
另一方面,KAIROS的曝光让我们看到了AI的下一步——主动性、个性化、跨会话持续记忆的「龙虾」时代。
更重要的是,社区在短短24小时内的反应速度令人惊叹。借助AI工具,开发者可以瞬间解构、翻译并重构51万行的复杂系统。当代码重构的时间成本被压缩到极致,传统的软件著作权边界变得模糊不清。
这场由失误引发的代码狂欢,预示着AI正在以我们未曾设想的方式,重塑软件工程的迭代速度与开源生态的底层逻辑。
🦞 今天,你养虾了吗?
参考链接: