“模型即Agent” - 从AutoGPT到Claude Code
作者: 星纬智联技术
发布时间: 2025年8月25日
致全体 AGENT 从业者
从问答机器人到自主Agent
近年来,大语言模型(LLM)的应用范式正经历从问答型模型(QA Model)向自主Agent模型(Agent Model)的重大转变。传统的QA模型(如GPT-4)经过微调更多是为了对话和回答问题,往往以迎合用户提问为导向;而Agent模型则定位为能够自主规划、执行工具、长期运行以完成复杂任务的智能体。Agent模型不再一味追求“礼貌地回答”,而是追求实际把事情做完——即使过程漫长繁杂,也能独立决策、纠错,真正担当起数字助理乃至数字员工的角色。
这一转变意味着过去针对聊天机器人的工程套路正在失效。过去三年风靡的许多AI框架(如LangChain、AutoGen、LangGraph、AutoGPT等)大多沿用了对话模型时代的“传送带与轮轴”思维:通过人为设计一系列流水线节点(计划、工具选择、执行、反馈等)串联LLM,每个节点用繁琐提示词限定LLM扮演特定小角色,再用正则等手段解析LLM输出,交由下一个节点处理。整个系统被设计成一个环环相扣的复杂机械,模型只是被当作齿轮之一。这种过度人工支架(Scaffolding)的做法,表面上给了开发者掌控,实则让系统结构臃肿脆弱—— 只要一个齿轮出错,整台机器就可能停摆。正如一份深度剖析所指出的,“过度复杂的脚手架式框架弊大于利”;相反,真正强大的“Agent”应该简单而强大,而不是拼凑一堆易碎的复杂模块。
旧式“伪Agent”框架的困境
让我们更具体地审视这些传统Agent框架的问题所在:
1. 强行流水线,脆弱且低效 许多框架将LLM的工作流程硬拆成多个步骤:先让模型生成计划,再通过提示词让模型选工具,接着执行命令,把结果反馈,再总结,再判断下一步……如此循环。每一步都用繁琐提示严格限定模型输出格式,然后用程序解析提取关键信息。这种设计就像上古时代复杂精密的机械传送带,每一个节点都有大量规则,彼此依赖** 一旦某步输出稍有偏差,解析失败,整个链条可能崩溃**。为了弥补,又不得不增加更多提示词约束和校验模块,形成恶性循环,系统越补丁越复杂。正如MinusX团队总结的:提示里充斥成千上万字的各种要求,会令LLM变得“极其脆弱”,而且新需求根本无从塞进这锅乱炖的提示词里。
2. 模型被当成瑞士军刀,主体作用被削弱 这些框架里,LLM在不同节点被当作不同NLP小工具:一会儿充当“计划生成器”,一会儿是“意图分类器”,接着又成了“信息摘要器”……每个角色都有专门提示词和格式要求。模型本身没有持续的内部状态,仿佛在扮演一连串失忆的临时工。整个系统的智能主要不来自模型,而来自人为设计的流程。换句话说,模型的巨大潜力只被利用了区区20%,其余80%的逻辑都硬编码在框架中了。这种本末倒置不仅浪费了大型模型强大的推理能力,也让系统难以扩展——模型稍有出格就会违背提示要求,导致管道出错。
3. “多Agent”名不副实 一些开发者试图用多智能体分工来提高复杂任务能力,比如让一个Agent负责生成任务清单,另一个Agent执行实现,再交给第三个Agent验证反馈。然而这种链式多Agent交接在实践中问题多多:信息在不同Agent间传递易失真,责任划分不清导致互相推诿,协调开销巨大。Anthropic的Claude Code团队明确指出,“多Agent接力绝非好主意,有很多很多原因”。真实情况是,这类方案往往把一个任务生硬拆散,做成三四个聊天机器人互相对话,效率低下且错误叠加,最终还不如一个强大的Agent直接完成来得可靠。
总而言之,过去这些所谓“Agent”框架更像是在用人为规则弥补模型的不足,本质上仍停留在对话机器人思维:凡事靠预设流程,缺乏真正自主性。这套思路已经走到天花板——提示词再复杂,节点再精巧,也无法让模型真正成长为有自主能力的智能体,反而会因系统复杂度直线飙升而不堪重负。
Anthropic范式:大道至简,Model-First的Agent架构
新一代的Agent框架正在颠覆上述陈旧做法,其中Anthropic的Claude Code就是标志性的代表。Claude Code在架构上遵循“模型优先(Model-First)”理念,以一种近乎UNIX哲学的简洁优雅方式,释放出模型的最大潜能:
•
单一主循环,统一对话历史 Claude Code摒弃了纷繁复杂的多层嵌套loop,只保留一个核心控制循环和一份消息历史。整个Agent的决策与行动都在这一循环中完成,避免了多节点多历史的状态同步难题。这使内部逻辑简单清晰,降低了出错概率。正如MinusX总结的核心要点:“务必保持一个主循环(最多带一个分支)和一个消息历史”。通过统一的对话上下文,模型始终拥有完整的任务视野,而非局限于某个步骤的片段信息。
•
接近原生的模型调用,尽量少的人工干预 Claude Code被设计为一个底层偏低的终端工具,提供接近裸模型的访问。Anthropic官方博客指出,Claude Code是“故意低抽象度、几乎不带偏见的,将大部分灵活性留给用户”,不强制特定工作流。它通过提示让模型明白总体目标和工具用法,但不会在每一步都横加干涉。这种“少即是多”的哲学,使得模型本身承担了80%以上的工作,工程层面只做必要的辅助(提供工具接口、安全控制等)。相比之下,传统框架那种用两个复杂智能系统(LLM+冗长检索管线)硬凑在一起的做法,在Claude Code作者看来简直是“丑陋”——正确的做法是让模型承担主要智力劳动,尽量减少Agent中多余的运转部件。
•
工具即能力:为模型赋能而非替代模型 Claude Code集成了丰富的工具插件(Shell命令、文件读写、代码执行、网页抓取等),但这些工具不是用来分散决策逻辑的,而是纯粹为模型服务的外设。模型根据需要自行决定何时调用哪个工具,例如直接用grep/find在代码库中搜索,而不是每次都被迫走向量检索/RAG那一套。事实证明,让LLM自己使用正则等复杂查询非常高效,它可以像人一样逐步浏览文件。相比之下,RAG管线要面临相似度函数、分块策略等诸多隐藏错误模式。Claude Code大胆地舍弃向量检索,改用“LLM自主搜索”策略,一举减少了大量中间环节和参数调优难题。更妙的是,这种让模型自行检索的行为可以通过强化学习直接优化(Anthropic内部笑称这是LLM界的“摄像头vs激光雷达”之争,模型自带搜索就像用摄像头,让系统更简洁)。总之,Claude Code的工具设计遵循一原则:能让模型自己做的,就让模型做,工程层面只提供必要的API和安全保障,不画蛇添足。比如虽然提供了单独的Grep工具是为了方便模型频繁使用,但模型完全可以自行构造Shell命令,工具存在的目的只是让常用操作更高效、更准确。
•
长程记忆与任务管理 Agent要长时间自主工作,必须解决上下文遗忘和跑题问题。Claude Code采用了三层记忆机制来确保长期逻辑连贯:短期对话上下文、中期自动压缩的摘要、长期的项目记忆库(即CLAUDE.md文件)。当对话长度接近上下文窗口上限时,系统会自动触发压缩模块,将过往对话浓缩成结构化摘要(包括关键设计决策、未完成的TODO、最近的结果等)。这样既保留关键语义,又避免无效冗余占据令牌。这使Claude Code能够在长达数小时甚至跨天的会话中仍保持思路清晰,不会因“上下文腐烂”而逐渐胡言乱语。更进一步,Claude Code引入了由模型自我维护的待办清单(Todo List)机制。模型会将复杂任务拆解成子任务清单,存在内存中并不断更新。与其让不同Agent传递任务,Claude Code让同一个模型扮演项目经理角色,随时参考和调整自己的TODO列表。通过在提示中反复提醒模型关注TODO,模型始终知道自己接下来要做什么。难能可贵的是,模型可以在执行过程中动态增删任务项,自我纠偏。Anthropic发现,这种方式比多Agent分工或静态任务列表更灵活,模型既不至于走偏方向,又保留了中途调整计划的自由,最大程度发挥了LLM“边思考边执行”的优势。
•
TaskTool:Agent as Tool Claude Code内部其实实现了一种分层多Agent架构,但它与前述“多个LLM互相对话”的套路截然不同。Claude Code的多Agent更类似于软件中的主线程+子线程模式:一个主Agent统筹全局,管理状态和调度任务;多个SubAgent作为工人,在沙盒中并行执行特定子任务(如扫描文件、运行测试),每个SubAgent权限受限,崩溃了也不会拖垮主Agent。这提供了隔离和容错——某个子任务失败,主Agent可以捕获异常并重试或换用其他策略,而不会像传统链式流程那样“一步出错、全盘皆输”。可以说Claude Code实现了真正意义上的多智能体系统:它更像一个由LLM担任大脑、众多工具和子进程为四肢的“单一智能体”,远比简单串联几个聊天模型来得健壮和高效。
通过以上创新,Claude Code在工程上做到了“大道至简”——让模型+工具的组合发挥出淋漓尽致的威力,而非用复杂系统框架束缚住模型的手脚。这也难怪MinusX团队在深度研究后感叹:“Claude Code让我相信,一个Agent完全可以既简单又强大”。极简的架构不仅使Claude Code表现出远超同侪的可靠性和智能,更为Agent类产品指明了今后的设计范式:以模型能力为中心,辅以精巧但简约的工程支撑。
Model First背后的训练策略:数据赋能Agent
值得注意的是,Claude Code成功的背后离不开更强大的基础模型Claude自身。而Anthropic之所以敢让模型承担如此多职责,一个重要原因在于他们采用了数据驱动的持续训练策略来提升模型的Agent能力。与其依赖复杂框架,不如直接训练出更聪明、更会干活的模型——这正在成为业界共识。
具体来说,Claude Code的研究预览向开发者提供了极为慷慨的使用额度:每月只需 $200 美元订阅Claude Max,就几乎可以无限次地调用高级模型(最多可达5 万美金每月API token 用量)。换言之,Anthropic甘愿贴补云计算成本,鼓励大量开发者把真实的软件开发任务交给Claude Code来做。这背后显然有深意:通过让众多有经验的程序员在Claude Code中长时间使用Agent完成项目,他们获得了海量高质量的任务轨迹数据。这些使用日志涵盖了从代码理解、错误调试到工具调用、反复试错的完整过程,对训练下一代Agent模型来说价值连城。
要知道,终端这种交互方式本身就筛选出了高门槛的专业用户。真正愿意用命令行AI写代码的,大多是中高级开发者,他们提出的问题、更改的代码、反馈的评价,都是宝贵的监督信号,而不像低门槛聊天应用那样充斥闲聊或低质请求。可以说Anthropic这是在用每月$200的价格,雇佣成千上万资深“带薪标注员”为它打磨Agent技能。正如一些观察者猜测的那样,这种投入对Anthropic而言更像是一笔数据采集和模型训练的投资,而非单纯卖服务赚钱。
事实也确实如此:Claude Code中的很多设计(如LLM自主搜索代码、TODO清单管理、工具使用模式等)都是可以通过RLHF和行为克隆在模型训练中学到的。Anthropic内部人士透露,诸如让模型何时调用哪个工具、何时中断反思,已经在收集到的大量对话/操作序列上做了强化学习微调。因此,每过一段Claude Code版本更新,用户都感觉模型变得更聪明、更稳健,仿佛隐隐掌握了一些“常识”。这些“习惯”的形成,很可能正是来自训练过程中对人类高手操作的模仿和强化。
归根结底,Agent时代的核心竞争力在模型本身。过去训练对话模型偏重让模型“听话”、“讨好用户”(比如不管用户问什么都详尽解释甚至道歉),而训练Agent模型则侧重让模型“把活干好”。评价一个Agent模型的指标,不是看它回答多流利,而是看它能否独立完成多轮复杂任务,例如:上下文窗口利用率、多步推理的可靠性、遇到错误时的自我修正能力、任务完成率等。这些能力只有通过在逼真的任务环境中练出来,靠堆提示规则是堆不出的。Anthropic显然深谙此道,通过Claude Code打造了一个正向循环:模型→产品→用户数据→模型加强。可以预见,随着2023-2025年这一波Agent数据的积累,未来的新模型将对复杂任务有更强的“涌现”技能——Agent模型的训练范式正引领我们走向一个模型即Agent的新时代。
展望未来:从单Agent独舞到亿Agent协作
2025年被业内称为“单体Agent元年”。Claude Code这样的单Agent系统,目前表现已相当惊艳,大致相当于一个能拿70分的高级工程师,在大部分编程助手场景下都能独当一面。今年底之前,随着模型持续迭代和更多反馈融入训练,我们有理由期待单Agent能力逼近90分乃至准人类水平——也就是几乎可以稳定胜任绝大多数开发任务。当单Agent日臻完善,下一步的前沿将在多Agent协同上展开。
可以预见,2026年将是多Agent的探索之年。届时业界会尝试让不超过10个Agent组成的小团队,共同协作去解决更庞大复杂的项目。例如,一个Agent擅长项目管理,负责拆解任务、进度跟踪;另一个Agent精通前端开发;还有Agent负责测试和部署等等。这些Agent团队如何高效沟通、分工、资源分配,将成为关键课题。同时,人类与Agent的协作关系也需要重新定义——也许人类经理负责制定总体目标,Agent团队自主落地执行,人类在中间审阅把关,形成人机混编团队的新范式。
再往后,当我们展望有数百乃至十万智能体参与协作的宏大系统,传统的人力管理和工程方法将难以胜任。设想一个由成百上千Agent构成的企业组织、软件系统或智慧城市,大规模智能体的自组织、自我优化将变得至关重要。此时,仅靠人写规则去调度显然不现实,必须借助机器学习和强化学习来涌现出高效的协作策略。一种可能的路径是训练出专门的“Leader Agent”或“调度者模型”,通过无数模拟训练,让它掌握如何在复杂网络中分配任务、监督进展、整合结果、应对突发状况。类似的研究在多人游戏AI中已经初见端倪——OpenAI Five的五个AI英雄组成的团队就曾以2:0的战绩击败了Dota 2的人类世界冠军队伍。这些AI在团队协作、战略规划上的完美配合,证明了多智能体系统完全有能力超越人类团队。腾讯的“绝悟”多Agent也在王者荣耀等游戏中展现出凌驾顶尖职业选手之上的实力,并被寄望于将该技术推广到医疗、交通、城市管理等更广泛领域。
如果这一趋势延续下去,我们或许会看到一个颠覆性的场景:大部分普通人类员工将接受AI主管的管理。当AI Agent展现出比人类经理更公正高效的决策能力时,让AI来承担中低层管理、协调任务甚至绩效考核,可能比人治更优。如同游戏中AI教练带领人类选手获胜一般,在现实企业里,一个成熟的Leader Agent完全可能根据数据做出客观决策,避免人类偏见,最大化团队效率。听起来也许有些科幻色彩,但技术发展常常超乎想象——未来已来,只是尚未流行。 我们的星球即将步入下一文明等级的阶梯。
开源引领Agent工程新范式
Claude Code向我们展示了Agent工程的一种理想范式:模型能力为王,工程框架让位于模型,自主智能替代僵硬脚本。这种范式必将成为今后众多第三方工具、框架和服务的基石。可以预见,大厂会推出自家的Agent模型,小型创业团队也能基于开源Agent内核快速打造垂直应用。在这一潮流中,追求开源协作的开发者们已经行动起来。
ShareAI-Lab发布了开源的Claude Code实现版本——Kode项目(GitHub: shareAI-lab/Kode)。Kode完全兼容Claude Code的全部特性和玩法,堪称Claude Code范式的开源复刻。更重要的是,Kode在开源社区的推动下加入了一些本土化改进和创新。例如,它内置了智能模糊匹配的命令/文件补全系统,大幅提升了终端交互体验。开发者可以在Kode中体验到中国式拼音缩写的快感:输入py3按下Tab,会自动补全为python3,输入dq补全为dao-qi,再按Tab则展开为run-agent-dao-qi-harmony-designer等。这种融合多算法的匹配让命令输入既宽松又高效,充分考虑了东方语言习惯和Unix极客文化的结合。再比如,Kode支持直接输入./逐级展开当前路径进行文件名补全,让Agent在复杂项目中切换文件如履平地。可以说,Kode不仅实现了Claude Code的精髓,还通过更开放的架构方便开发者二次开发和魔改,为Agent模型的多样化应用提供了良好土壤。
站在架构师的视角展望,我们正处于Agent智能爆发的前夜。Claude Code这样的系统还远不是终点,却已经令人生畏地强大。它证明了极简优雅的架构配合强大的模型,完全可以在实际生产环境中发挥作用。而当这一理念在开源社区开花结果,成千上万开发者参与改进模型与代理架构,我们有理由相信:Agent模型的黄金时代即将到来。
让我们抛弃陈旧的繁琐框架,拥抱“模型即Agent”的新范式;积极参与像Kode这样的开源项目,共同探索Agent工程的最佳实践。在不远的将来,每一个复杂软件系统中或许都活跃着一支能干的Agent团队——它们默默驱动着世界高效运转,正如今天的Claude Code已经开始做的那样。现在,未来的大门业已洞开,等待我们踏入其中,谱写人机协作的新篇章