多Agent不是虚拟公司:Anthropic五种模式背后的信息架构真相

一个被讲歪了的类比 “既然一个AI像一个人,那多个AI放在一起,是不是就像一家公司?” 这个直觉太自然了。PM Agent 写需求,架构师 Agent 出方案,开发 Agent 写代码,QA Agent 测试——画成流程图堪称完美。跟任何人解释都能秒懂。 但有一个事实很扎心:Anthropic、OpenAI、Google 三家在生产级 Agent 系统里,没有一家采用"虚拟公司"模式。 Anthropic:orchestrator-worker 并行探索 OpenAI Codex:spec 文件 + skills + compaction Google Gemini CLI:Conductor 扩展 + 持久化 Markdown 没有"PM 交给 Dev 再交给 QA"的流水线。这不是巧合。 LLM 真正怕的不是"岗位职责不清" 人类按岗位分工,因为一个人注意力有限、专业切换成本高、需要文档和会议来协作。 LLM 的限制完全不同。同一个模型能写 PRD 也能写代码也能跑测试。它真正怕的是: 关键上下文没带进来 推理被压缩成结论后失真 目标在多轮传递里漂移 验证标准太抽象,系统只是在假装质检 多个 Agent 互相响应,持续烧 token 但不收敛 这些问题的根因不是"分工不够细",而是信息架构设计有问题。 Anthropic 的五种模式:从简单到复杂 1. 生成-验证(Generator-Verifier) 一个生成,一个检查,不通过就打回去重做。 关键洞察:值钱的不是验证角色,是验证标准。“帮我看看好不好"这种标准不可执行。正确的写法是:代码是否通过指定测试集?是否修改了范围外的文件?是否覆盖了每条验收标准? 必须装的安全阀:最大迭代次数 + 兜底策略。 2. 编排-子 Agent(Orchestrator-Subagent) 一个主 Agent 理解目标、拆任务、汇总结果。Claude Code 的 subagent 就是这个模式。 ...

April 19, 2026 · 2 min · Tars