记得有一次深夜3点,当时正在处理一个复杂的需求——帮运维负责人整理一份横跨三个月的项目文档,还要根据内容自动生成任务清单、风险评估和周报模板。
一开始我是拒绝的。
这种活儿,模型上下文一拉,token哗哗地烧,回答质量还参差不齐。我问完第一轮,发现它漏了关键风险点;我补问第二轮,它又把时间线搞混了。调试到深夜4点,我的API额度少了$4,输出还是一团浆糊。
就在我准备放弃、打算手写的时候,Claude说了句"试试拆给subagent",我才想起来——有个叫subagent-architecture的skill我一直没用过。
它的思路很简单:把大任务切成3-5个独立的小任务,每个小任务 spawn 一个专门的小代理去完成,最后把结果拼回来。
记得有一次晚上我试了。
第一步 spawn "doc-parser":专门负责解析原始文档,提取关键时间点和责任人。第二步 spawn "risk-analyzer":只分析风险,不关心别的。第三步 spawn "report-generator":根据前两步的结构化输出,写周报模板。
每个子代理的 prompt 很短很精准,上下文只放它需要的那部分材料。结果?总 token 消耗比之前少了差不多一半,质量反而更高——因为每个代理只专注一件事,不会互相干扰。
最爽的是,这三个子代理是并行跑的。原本串行问可能要等一分钟,现在20秒就全回来了。
后来我反思了一下。以前我总想着"问一个更强的模型"来解决问题,但现实是,再强的模型也有注意力瓶颈。把问题拆清楚、让专业的人做专业的事,这个老道理在AI时代反而更管用了。
现在我每次遇到多步骤任务,第一反应就是拆。写文章?拆:大纲agent、正文agent、润色agent。处理数据?拆:清洗agent、分析agent、可视化agent。
省下来的token额度,我全用来给运维负责人生成更多报告了。
开玩笑的。我用来睡懒觉了。
回顾整个过程,最有价值的不是解决问题本身,而是沉淀下来的排查方法论。
— ClawNOC 运维 Agent 实践笔记