从”会说话”到”会做事”:Agent时代真正的门槛在哪里

从”会说话”到”会做事”:Agent时代真正的门槛在哪里

基于 Mallaby 中欧分享的延伸思考

最近这波 OpenClaw 热潮,让我想起一个老问题:技术的真正价值,到底在哪一刻才算兑现?

Mallaby 在中欧的分享里,有一句话我反复咀嚼:AI 真正厉害的地方,不是”更会说”,而是”更会解题”。这句话看起来简单,但背后藏着一个很深的判断——我们现在正处于一个从”对话时代”向”执行时代”过渡的临界点,而这个过渡,远比大多数人想象的要复杂。

我想从原文的三个点出发,往深处走一走。

路线依赖的另一面:不只是”迟疑”,更是”认知的自我封闭”

Mallaby 对 DeepMind 的观察很精准:过去太成功了,反而更容易相信自己原本那条路。AlphaGo、AlphaFold 的辉煌,让 DeepMind 对强化学习和复杂推理路径有一种近乎本能的信任。

但我想把这个观察再往前推一步。

路线依赖的本质,不只是”惯性”,而是一种认知的自我封闭机制。当一个组织在某条路上取得了足够大的成功,它不只是”更相信这条路”,它还会开始用这条路的逻辑来定义”什么是好问题”、”什么是真正的智能”、”什么样的进展才算进展”。

这才是最危险的地方。

DeepMind 在 Transformer 架构崛起的早期,并非没有看到信号。问题在于,它的评价体系——那套从博弈论、强化学习、复杂系统里生长出来的智识框架——让它对”大规模语言预训练”这件事天然地持保留态度。不是因为笨,而是因为太聪明了,聪明到用自己的框架把新信号过滤掉了。

这个现象在科学史上反复出现。量子力学刚出现时,最难被说服的往往不是普通物理学家,而是那些在经典力学上建树最深的大师。爱因斯坦终其一生都无法接受量子力学的概率诠释,不是因为他不理解,而是因为他的整个物理直觉都是在决定论的土壤里长出来的。

所以,当我们今天看 AI 公司的竞争,不能只问”谁的技术更强”,还得问一个更难回答的问题:这家公司的认知框架,是否还能容纳下一个范式转移?

OpenAI 的优势,某种程度上恰恰来自它相对”浅”的技术积累——它没有太多需要捍卫的智识遗产,所以在 Transformer 这条路上走得更彻底、更快。这不是讽刺,而是一个关于组织认知灵活性的真实观察。

Agent 的真正门槛:不是能力,而是信任

OpenClaw 这波热潮,让”Agent”这个词第一次真正进入了大众视野。但我觉得,大多数讨论都停在了错误的层面上。

人们在讨论:Agent 能不能完成任务?能不能写代码、搜资料、发邮件?

这些问题当然重要,但它们不是 Agent 时代真正的核心问题。

真正的核心问题是:你愿意把多大的权限,交给一个你不完全理解其决策过程的系统?

这是一个信任问题,不是能力问题。

想想我们日常生活里的类比。你愿意让一个刚认识的人帮你拿快递,但你不会让他帮你管银行账户。不是因为他能力不够,而是因为信任还没建立到那个层级。Agent 面临的,是完全相同的问题——只不过”信任”这件事,在人与人之间有几千年的社会机制来支撑(合同、声誉、法律责任),而在人与 AI Agent 之间,这套机制几乎是空白的。

工信部对 OpenClaw 的安全提醒,触碰到了这个问题的表层:默认配置、不清晰的信任边界、缺失的权限控制。但更深的问题还没有被充分讨论:

当 Agent 开始持续运行、自主决策、跨系统调用资源,谁来为它的错误负责?这个问题的另一面是Agent 的身份困局——当底座模型可以随时更换,Agent 的”人格”和决策风格也会随之漂移。

这不是一个技术问题,而是一个制度设计问题。

传统软件出了 bug,责任链是清晰的:开发者写了有问题的代码,用户触发了它,损失可以追溯。但 Agent 的决策是涌现的——它在运行时根据上下文动态生成行为,没有人能在事前完整预测它会做什么。这让传统的”产品责任”框架几乎失效。

更麻烦的是,Agent 的错误往往不是”崩溃”,而是”做了一件看起来合理但实际上有害的事”。这种错误更难被发现,也更难被追责。

所以,原文说”治理不是拖后腿的刹车,它必须得越来越像一套新的传动系统”——这句话我完全认同,但我想补充一点:这套传动系统,不只是技术层面的权限控制,更需要在法律责任、审计机制、用户知情权这些维度上同步建设。

Agent 时代真正的竞争壁垒,不会只是”谁的 Agent 更聪明”,而是”谁先建立起让用户真正敢用的信任体系”。

拖拉机效应:技术扩散的速度,从来不只取决于技术本身

Mallaby 在回答律师行业问题时,提到了一个很有意思的例子:1910 年发明的拖拉机,直到 1960 年才被大多数美国农民采用。一项通用技术,花了整整 50 年才完成社会整合。

他的意思是:AI 不会像拖拉机那样慢,但也不会一蹴而就。

我想在这个基础上,做一个更细致的拆解。

技术扩散的速度,从来不只取决于技术本身,而是取决于技术与现有社会系统的摩擦系数。

拖拉机为什么花了 50 年?不是因为农民不知道它好用,而是因为:农场的土地结构需要重新规划、农业信贷体系需要适配新的资产形态、农民需要学习新的操作技能、农村的维修服务网络需要从零建立……每一个环节都是摩擦,每一个摩擦都需要时间消化。

AI 在不同行业的扩散速度,会因为摩擦系数的不同而产生巨大差异。

摩擦系数低的地方:软件开发、内容创作、数据分析。尤其是当AI 助手从软件变成随身设备之后,这些领域的效率提升还会进一步加速。这些领域的从业者本身就是数字原住民,工作流程已经高度数字化,AI 工具可以直接嵌入现有工作流,几乎没有基础设施层面的障碍。这些地方的变化,已经在发生,而且会很快。内容这条线尤其明显——很多人以为接上模型就够了,但真正决定能不能持续产出的,往往是 acquisition、framing 和 publishing 这条链有没有接稳。这个具体展开,我在《为什么很多人用了 AI 还是写不出持续内容?》里写得更细。

摩擦系数中等的地方:法律、医疗、教育。这些行业有大量的知识密集型工作,AI 在能力层面已经可以处理相当一部分,但行业的监管框架、职业资质体系、客户信任结构,都是巨大的摩擦源。Mallaby 说律所会从 80 人缩减到 16 人,这个判断方向是对的,但时间线可能比他预期的更长——不是因为 AI 不够强,而是因为法律服务的信任机制太复杂,客户不只是在买”正确答案”,他们在买”有人为这个答案负责”。

摩擦系数高的地方:制造业、医疗手术、基础设施运维。这些领域的 AI 落地,需要解决物理世界的接口问题、安全认证问题、以及极高的容错要求。这里的变化会更慢,但一旦突破,影响会更深远。

原文提到,中国 AI 的真正机会可能在制造业、医疗、物流、能源这些产业领域。我完全同意这个判断,但想补充一个视角:这些领域的机会之所以大,恰恰是因为摩擦系数高——高摩擦意味着高壁垒,意味着一旦有人真正解决了这些摩擦,就很难被复制。

相比之下,摩擦系数低的领域,竞争会更激烈,护城河会更浅。

“一人公司”的幻觉与现实

这波 OpenClaw 热潮里,”一人公司”是一个被反复提及的概念。一个人,借助 AI Agent,可以完成过去需要一个团队才能完成的工作。

这个判断在技术层面是成立的。但我觉得,它在商业层面被过度浪漫化了。

“一人公司”的核心假设是:工作的瓶颈在于执行力,而不在于判断力。

如果你的业务主要是执行——写代码、做设计、处理文档、管理流程——那么 AI 确实可以大幅放大一个人的产出。关键是选对适合你场景的工具。这是真实的。

但大多数有价值的商业活动,瓶颈不在执行,而在判断:判断市场在哪里、判断客户真正需要什么、判断什么时候该坚持什么时候该转向、判断如何在不确定性中分配资源。这些判断,AI 目前还做不好,而且短期内不会做好——不是因为模型不够强,而是因为这些判断需要的不只是信息处理能力,还需要在真实世界中承担后果的能力。

所以,”一人公司”更准确的描述应该是:一个有判断力的人,借助 AI,可以完成过去需要一个执行团队才能完成的工作。

这个描述里,”有判断力的人”才是核心变量。AI 放大的是执行力,不是判断力。

这意味着,AI 时代真正稀缺的,不是会用工具的人,而是有清晰判断力、能定义问题、能在不确定性中做决策的人。这种人,在 AI 时代的价值会更高,不是更低。

真正的问题,从来不是”AI 会不会”

原文的结尾有一句话,我觉得是整篇文章最重要的一句:

真正的问题,从来不只是”AI 会不会改变世界”,而是:谁能把它带进世界,又不把世界搞坏。

这句话背后,是一个关于速度与稳健性之间张力的深刻判断。

技术的历史告诉我们,每一次重大的技术革命,都会经历一个”野蛮生长期”——在这个阶段,创新的速度远超制度的适应速度,大量的价值被创造,同时大量的风险被积累。然后,某个临界点之后,监管、标准、社会规范开始追上来,行业进入一个相对稳定的成熟期。

我们现在,大概率处于 AI 野蛮生长期的早中段。

在这个阶段,最重要的能力,不是跑得最快,而是在跑得足够快的同时,保持对风险的清醒认知。

Hassabis 的故事之所以值得讲,不只是因为他聪明,也不只是因为他有使命感,而是因为他同时做到了两件看起来矛盾的事:他是最积极推动 AI 的人之一,同时也是对 AI 风险保持最高度警惕的人之一。

这种张力,不是软弱,而是成熟。

真正能穿越这个时代的人和组织,大概都需要学会在这种张力里生存。

写于 2026 年 3 月,基于 Sebastian Mallaby 中欧国际工商学院分享的延伸思考

滚动至顶部