Agentic AI时代,企业需要什么样的领导力?

如果在过去的一年里,你的企业还在纠结于如何让员工更高效地使用聊天机器人,那么现在是时候调整战略焦点了。我们正在经历一个从“自动化”到“Agentic AI”的根本性跨越。

对于企业管理者而言,这是一个既令人兴奋又充满挑战的时刻。作为变革的推动者,我们有机会带领企业超越单纯的效率提升,迈向高自主性的新时代,同时,这也要求我们彻底重新思考企业的运营逻辑。

重新定义“Agent”

在当前的市场上,似乎一切都被贴上了“Agent”的标签。但拨开表象,从底层逻辑来看,Agent发展至今,呈现出清晰的成熟度阶梯。

第一层是传统自动化,即通过脚本和固定的工作流,处理具有重复性且可预测的任务。虽然高效,但不具备思考能力。

第二层是AI助手,也就是目前普及的聊天机器人。它们拥有强大的知识库,能回答查询、总结文档,甚至通过RAG(检索增强生成)调用数据。其核心在于“响应”,能在对话中提供辅助,但独立行动能力依然受限。

第三层是基于目标和任务的Agent。它们不再依赖指令,而是依赖“意图”。你给它一个特定的业务目标,它能与人类协作,为完成该任务自主调用工具。

最后一层是Agentic系统,也是自主性的最高形态。多个Agents像一个团队一样协作,能处理高度复杂甚至模糊的任务。它们能将目标拆解为无数个具体步骤,并分工完成。在这里,AI的核心价值从“响应”进化为“成就”。

目标驱动:它们不等待每一步的指令,而是接收并理解“高阶意图”,再自主规划路径,将意图转化为行动。

资源整合能力:它们不仅能访问数据,还能理解上下文、组织层级和角色。它们知道为完成任务需要调用哪些工具、连接哪些API。

记忆能力:真正的Agent拥有记忆,它能记起上次处理类似任务时遇到的问题,从而避免重蹈覆辙。

学习与适应能力:它们不是静态的软件,而是能从反馈循环中不断自我优化的系统。

上报机制:这一点常被误解。Agent在遇到无法处理的问题时寻求人类介入,这不仅不是系统的失败,反而是一种内置的信任机制。这意味着你可以放心地让它处理业务,因为它知道何时该停下来请求你的帮助,而不是盲目地制造风险。

当然,很多人会问,AI的热潮已经持续了几年,为什么现在才强调“Agent”?答案在于两条关键曲线的交汇——如今,AI能够独立处理的任务复杂度大约每7个月就会翻一番,这意味着AI可以承接越来越复杂的任务;同时,智能成本正在断崖式下跌。以MMLU(大规模多任务语言理解)基准测试为例,得分为 83 分就相当于博士级专家,能够处理细微差别和歧义。几年前,获取这种“博士级”智能的成本极其昂贵,而如今,处理百万Token的成本已从 2022 年的 98 美元降至 0.48 美元左右。

当能力飙升遇上成本骤降,我们便进入了大规模应用Agent的“甜蜜点”。

拥抱“非确定性”

新的Agentic AI时代,与过往的一大不同在于,非确定性(Non-determinism)不再是系统的缺陷,而是其固有特性。因而,和传统管理学仅聚焦于奖励“确定性”不同,在Agentic AI时代,价值恰来自非确定性,即根据上下文变化、模糊信息进行即时调整和优化的能力。

要驾驭这种力量,领导者需要在四个维度上进行心智模式的转变。

1、治理模式:从“过闸机”到“董事会”

传统的治理如同收费站(Toll Gates),通过定义流程、控制每一步、清单验证实现合规。但当面对数千个高频互动的 Agent时,这种模式会彻底崩塌。取代它的,是像董事会管理 CEO 一样管理Agent。

正如董事会不会告诉CEO每天具体该做什么,而是设定战略意图和边界,你也需要构建一个“策略引擎”,明确告知Agent“这是你的目标,这是绝对不能触碰的红线”,随后通过持续的校准和观测来进行管理,而非在每笔交易前进行人工审批。

2、风险控制:从“工厂流水线”到“交易大厅”

传统的风险管控模式类似于工厂,常用方式是设定固定阈值,例如规定采购订单超过200万美元需副总裁批准,超过1 000万美元必须提交给CFO。这种僵化的风控会扼杀Agent的核心优势。

新时代下,企业应像管理交易大厅一样管理风险。

金融交易大厅充满了高风险和不确定性,但通过实时可见性和“熔断机制”(Circuit Breakers)实现有效管理。交易员的每一个动作并不会被干预,但如果其交易组合或某一特定交易违反了政策,熔断机制会自动触发停止交易。管理AI Agent也应遵循这一逻辑。AI Agent 必须通过在企业设计的风险控制范围内运行,以此赢得其“流动性”(即操作权限)。这不仅包括监控具体Agent的行为,还包括监控Multi-Agent 系统中的系统性偏差——一旦发生偏差,需立即触发熔断机制。

3、组织结构:从“职能筒仓”到“免疫系统”

组织结构总是随着重大技术变革而调整。传统的组织结构往往是垂直化的,虽然稳固,但处理问题时速度迟缓。

在为AI Agent构建组织架构时,应采用的思维模型是“免疫系统”。白细胞发现病毒时,它们不需要等待大脑的指令,也不会召集肺部协同商议,而是迅速集结,通过目标导向的协同编排解决问题。因此,围绕业务工作流组织跨职能团队,才是真正能从AI Agent获取价值成果的方式。

4、文化基因:从“运营执行”到“持续学习”

大多数企业文化都在奖励“精准执行”,惩罚“偏差”。但实验室文化对新发现持开放态度,哪怕结果不尽如人意。在实验室中,若出现失误,会将其作为一种学习机制,记录下来并广泛分享。在这样的文化中,新的发现和调整本身成为一种特性,而非缺陷。

构建Agent的“大脑”与“工牌”

那么,是哪些技术能力让AI Agent成为了现实?答案是三大核心因素:智能、上下文理解和信任。

如果我们把 AI Agent 比作人类,智能就是它的“大脑”,技术模型——包括用于思维链(Chain-of-Thought)推理和反思的思考模型——赋予了“大脑”将意图转化为任务的能力。理想状态下,我们希望AI Agent拥有最高智能、最低价格和最快响应速度,但在现实中,三个维度之间必然存在权衡。每种模型都有其独特的优势:有些擅长推理,有些擅长快速响应,有些擅长处理文本任务,还有些在图像和数学任务上表现出色。

但仅有大脑并不代表具备行动能力。访问权限和上下文理解才是AI Agent的“双手”。它们赋予了AI Agent访问正确数据、采取行动以及调用各类工具实现目标的能力。在组织中运用上下文理解时,尤其是针对复杂工作流,需要AI Agent理解角色、层级、数据、系统和工具。这包括通过知识图谱让AI Agent理解数据中不同对象和领域之间的关系,以及利用向量数据库让AI Agent理解语义(即事物之间的相近性,例如“猫”和“狗”是近义词,而与“云计算”相去甚远);让AI Agent拥有记忆能力同样关键,它需要记住角色设定(你是谁)、程序记忆(怎么做)、语义记忆(各类知识),以及情景记忆(上次发生了什么)。

最后一层是信任。没有信任,AI Agent就无法实现规模化应用。

确保信任的一种方式是设置安全防护机制。比如敏感信息过滤器(即PII,个人身份信息)。企业不希望这类信息泄露,可在安全防护机制中定义相关规则。上下文一致性检查能为所有AI Agent提供政策层面的信息指引,例如明确告知:“我们的退货政策是90天。”这些规则必须独立于模型存在,无论调用哪个大模型,安全防护机制始终生效。

“自动化推理检查”也是让企业能够信任 AI Agent并确保其在公司中有效扩展应用的核心工具之一。这是一种数学验证方法:与其像测试员一样绘制无数个三角形来验证勾股定理,不如用数学定理证明其必然正确。亚马逊云科技就利用自动推理将幻觉发生率降低了99%。

必须强调的是,AI Agent目前仍处于早期发展阶段,不能将其视为“万能魔法棒”。事实上,若企业拥有步骤固定、工具使用高度有限的可预测工作流,基础自动化或简单生成式AI助手便已足够。当企业需要动态选择工具,或希望利用Agent的适应性和学习能力时,Agent才会展现真正的强项。此时,企业可从价值最大的三个特定领域入手:软件开发、客户支持,以及知识型工作。

例如:汤森路透(Thomson Reuters)利用Agentic AI进行代码现代化改造,将遗留的 .NET 代码迁移速度提升了4倍。这不仅是效率的提升,更让工程师从技术债中解脱出来,专注于创造新价值。亚马逊的购物助手Rufus能够回答诸如“这个玩具需要几号电池”或“这跟我以前买的配件兼容吗”这类高度情境化的问题,数据显示,使用Rufus的用户购买转化率提升了60%。应付账款的案例则是知识型工作与异常处理的典型场景:传统的应付账款(AP)处理目标是“准时付款”,而Agent AP的目标可以是“优化现金流”。它可以根据汇率波动、厂商历史信用、合同条款,自主选择是根据汇率波动提前付款,还是利用外汇对冲策略延迟付款。这正是从“按部就班”到“高能动性”的价值跃迁。

伊希特·瓦赫拉贾尼(Ishit Vachhrajani)| 文

伊希特·瓦赫拉贾尼是亚马逊云科技全球技术、AI分析与企业战略负责人。

本文来自微信公众号“哈佛商业评论”(ID:hbrchinese),作者:HBR-China,36氪经授权发布。

发布时间:2026-04-02 13:33