ZDNET 核心要点
并非所有“自主智能体 AI(agentic AI)”工具都是真正的自主系统。糟糕指令与失控智能体,可能引发一连串失败。所以,应关注可衡量成果,而非盲目追逐炒作或野心。
设想你是一位首席执行官,AI 战略特别工作组为你提供了两个战略选项。第一个选项较为稳妥,利用自主智能体 AI 削减管理费用,可节省 10% 的人力资本总成本;第二个选项更大胆,借助自主智能体 AI 改变公司运营,有望使业务增长 10 倍。
第一个选择效果或许不显著,但能让 AI 项目实现收支平衡;第二个选择可能大幅提升业绩,让你在董事会眼中成为传奇人物,却也可能让你丢掉工作。
当下,相关溢美之词不绝于耳。毕马威(KPMG)估计,自主智能体 AI 将带来每年 3 万亿美元的生产力提升;埃森哲(Accenture)认为,自主智能体 AI“无异于一种新型资本”,“标志着经济历史的转变”;去年秋天,高德纳(Gartner)表示:“鉴于该行业正处于转折点,企业有三到六个月的关键窗口期来确定其自主智能体 AI 产品战略。”
那么,你会如何抉择呢?
风险因素
高德纳可能建议你立即行动,埃森哲则建议追求 10 倍增长,而非 10% 的成本节约。但我的建议是保持冷静。尽管自主智能体 AI 项目有巨大潜在收益,但缺乏可靠战略就贸然行动,可能导致失败。
高德纳有相关数据显示:“到 2027 年底,超过 40% 的自主智能体 AI 项目将因成本不断攀升、商业价值不明确或风险控制不足而取消。”这些失败还有其他原因。高德纳指出,大多数早期项目是实验或概念验证,本身无可厚非,但这类测试不保证成功,这正是测试的意义所在。
1.AI 粉饰:企业常被供应商引入歧途。许多供应商跟风 AI 热潮,进行高德纳所说的“智能体粉饰(agent washing)”,该术语源自“漂绿(greenwashing)”,即虚假地将产品描绘成环保产品的做法。高德纳估计,数千家自主智能体 AI 供应商中,实际推出自主智能体产品的不到 13%。多数公司只是将现有的 AI 助手、机器人流程自动化、基于脚本的服务和聊天机器人等产品重新包装成“自主智能体”。认为这些工具能执行自主任务的假设是错误的,会导致基于这些产品的试点项目注定失败。
2.成本失控:多数 AI 应用依赖外部大语言模型(LLM)提供认知处理服务,如 OpenAI、谷歌和 Anthropic 等公司的服务,这些服务通过应用程序编程接口(API)与应用程序相连。可以把 API 想象成墙上的插座,将咖啡机插到插座上就能获得电力制作咖啡,插座和插头是标准化接口(类似 API),咖啡机是应用程序,云服务像电力公司,使用服务需付费。AI 公司按“令牌(tokens)”计量使用量,生成式 AI 对令牌使用相对较少,仅提问时消耗,如同咖啡机制作一杯咖啡,电力/令牌使用量少。但自主智能体 AI 像服务器机架,几乎一直在运行,多个智能体同时运行会大量消耗令牌。随着企业扩大自主智能体 AI 使用,云服务账单会急剧增加,这就是 OpenAI 在 2022 年末还无收入,到 2025 年却实现超 200 亿美元收入的原因。
3.结果不可预测:AI 项目存在“非确定性”,相同输入在不同运行中可能产生不同输出,因为 AI 融入了概率、随机性和上下文敏感性,而非遵循固定、可重复的执行路径。这种缺乏可预测性在构建和测试解决方案、调试故障、验证输出、确保合规性以及在更新和部署过程中保持一致行为时,可能带来很大问题。Salesforce 旗下 Agentforce 的执行副总裁兼总经理 Madhav Thattai 在邮件中表示:“过去的软件完全是确定性的,相同输入产生相同输出,易让人信任。但 AI 智能体打破了这种模式,相同输入会产生不同结果,需要一种混合方法。上下文、控制和治理不能在部署后再添加,成功的公司从一开始就设计好这些层面。”
4.失控的智能体:想象值得信任的员工犯错的后果,智能体也可能出现类似情况,且运行速度比员工快得多。不经意的操作大规模执行,可能瞬间影响整个组织。就像妈妈曾说“按我的意思做,而不是按我说的做”,她期望我理解其意图,不管表达是否准确。若员工给智能体的指令有误,目标不一致就会成为问题。虽可创建制衡的智能体监督系统,但更可能的情况是,指令有误时,智能体不会理解意图,只会在网络中横冲直撞,留下混乱。若逻辑链中有指令错误的智能体,失败会引发连锁反应。
5.数据安全和隐私风险:安全和隐私也是问题。几乎所有深度自主智能体 AI 部署都涉及使用非本地的大语言模型,意味着数据要发送到云端的 AI 系统。大型 AI 公司承诺不将企业数据用于训练,但实际上仍将数据发送到无法控制的系统,可能引发各种隐私、监管和治理问题。做出永久性实施决策前,一定要深入研究这个问题。
回报策略
俗话说“没有风险,就没有回报”,我们已探讨风险,现在看看如何从自主智能体 AI 部署中获得回报。埃森哲提出了一种分层的 AI 项目方法。
-第一层 - 自主自动化:这是 AI 实施的基础层面,埃森哲指的是针对性解决方案,即“简单的人力替代”。例如,用经过专业训练的聊天机器人增强技术支持,或让智能体处理某些表单或输入。
-第二层 - 基本要求:这是埃森哲对端到端流程重塑的定义,旨在释放价值。通过这种方式可节省大量成本并提高整体产出,但无法使业务与竞争对手区分开来。
-第三层 - 战略赌注:没错,他们在战略声明中用了“赌注”这个词。埃森哲认为,大胆冒险,使用 10 倍增长指标,可能获得丰厚回报,本质上是基于 AI 能力重塑业务。
这种方法是否可行或可实现呢?也许吧。我认为这种所谓的 AI 机会“战略”分析模式更多是为了激发兴奋感,而非产生实际结果。埃森哲甚至直接表示:“如果公司的自主智能体 AI 议程不能让投资者兴奋,那么这个目标还不够大胆。”
1.从实际出发,而非野心:我们稍微放慢节奏。一开始就全速前进可能会偏离轨道,应谨慎行事、深思熟虑。这样仍可获得回报,且更有可能成功。首先,审视当前业务流程,几乎所有企业都有一些流程存在耗时过长、响应不够及时、成本过高、经常出错等问题,这些问题领域长期以来很明显,甚至无需全公司范围的深入分析。
2.选择合适的起点:谨慎选择尝试自主智能体 AI 的项目。寻找运行成本高、频繁发生且遵循相对可预测模式的内部流程,导致收入流失、造成瓶颈或依赖重复性手动工作的工作流程尤其适合。使用自主智能体解决方案取代人工劳动时要谨慎,让员工从繁琐工作中解脱出来,为公司做出更有深度的贡献。从非关键系统开始,这样即使出现错误也能控制,不会对业务造成连锁反应,把这些看作容易实现的目标。有些问题可通过特定任务的智能体解决,有些可能需要多个智能体在单一数据环境中协同工作来缓解,还有些可能根本不需要 AI,通过简单的算法流程就能解决。避免存在边缘情况、模糊性或规则不断变化的领域,这些情况对智能体来说更难可靠处理,更易产生问题而非创造价值。
3.设置安全保障:从测试阶段过渡到生产部署时,要设置安全保障措施。扩大规模前,一定要考虑并实施这些保障措施。尽早让人类参与,特别是在审批和异常处理方面,确保智能体不会不受控制地运行,这可能比 AI 公司承诺的要困难。当 Claude Code 突然开始在智能体之间分配工作时,我发现它们运行速度比我能跟踪的还快,经常陷入困境,还会带来其他麻烦。我的解决办法是至少在能更好地管理它们之前,取消同时运行多个智能体。随着对性能的信心增强,逐步增加自主性,不要急于开启全面的自主自动化,这可能需要顶住投资者和其他关键人物的压力,但要坚持自己的立场。不能把生产线交给最大投资者冲动的不成器的侄子,同样,在 AI 智能体还未准备好之前,也不要把业务流程交给它们。医院 AI 软件公司 Qventus 的首席执行官兼联合创始人 Mudit Garg 在给 ZDNET 的邮件中表示:“随着 AI 的发展,企业需要适应性强的治理机制。虽然目前人工监督仍然很重要,但治理框架应该预见到更高的 AI 自主性,并包含明确的、面向未来的保障措施。几年前制定 AI 治理框架的许多医疗系统,现在已经不得不对其进行重构,以适应如今的 AI 能力。”一定要持续监控行为和成本,因为对于自主智能体 AI 来说,小问题不处理可能会迅速恶化。这里有一个推论:如果无法监控某个方面,或者还不知道如何监控,那就等能够监控之后再部署自主智能体 AI。Salesforce 的 Thattai 也对 AI 治理有自己的看法,他说:“企业正在跨模型、供应商和工具组装智能体。治理必须足够开放和灵活,以适应这些情况。但没有监督的开放只会导致混乱。智能体需要基于严格治理的标准构建,在整个智能体生命周期内保持一致的可见性和监控。信任是不可谈判的。”
4.扩大成功案例:确定可行的用例后,将初始项目规模控制得非常小。从单个工作流程开始,确保能证明有明确、可衡量的投资回报率(ROI)。然后,扩展到模式和数据相似的相关流程。在尝试在整个组织内更广泛地扩展之前,先证明能可靠地执行多个项目。
5.衡量实际回报:怎么知道自主智能体 AI 是否有效呢?首先,和员工交流,了解他们对新系统的看法。之后,查看能以明确运营指标衡量成功的指标,如每个任务成本的降低、周期时间的缩短、错误的减少以及可衡量的收入获取或挽回。Qventus 的 Garg 说:“最大的挑战是证明大规模的投资回报率。许多医疗系统缺乏明确的绩效基准,且实施周期长,再加上依赖旧的电子健康记录(EHR)系统,问题更加复杂。”要记住,若无法将一个流程与具体、可衡量的结果联系起来,就无法证明增加了价值。Garg 还说:“成功需要尽早定义可衡量的结果,并优先处理少数高影响力的用例,从 80% 的准确率提升到 95%,而不是分散精力在 1000 个浅层次的应用上。”
不要做的事
还要记住这些注意事项:不要一开始就试图进行全面转型,不要同时在多个系统中部署,不要认为供应商所说的他们能做到的事情就一定能实现,不要让任何人迫使你行动的速度超过组织能够有效吸收的程度。
通向回报之路
文章开头给了你一个选择,但在 10% 的安全效率提升和 10 倍的风险转型之间做选择其实意义不大。在自主智能体 AI 方面取得成功的公司会在合适的场景中实施解决方案,有时能实现渐进式的成本节约,有时则能大获全胜。从有针对性的改进开始,如果一切顺利,这些改进会自行产生回报。了解哪些有效、哪些无效以及哪些可以扩展,然后随着时间的推移,将这些成功经验扩展到更广泛的系统中,重塑业务运营方式。
自主智能体 AI 非常强大,能改变企业的发展轨迹,这种改变可能是积极的,也可能是消极的。去年 12 月,我曾讨论过 AI 就像一个放大器,“放大了高绩效组织的优势,也放大了陷入困境的组织的功能失调”。那么,你该怎么做呢?我的建议是谨慎行事,以免在商业模式中释放出一头不受控制的野兽。从试点项目开始,逐步积累经验,然后慢慢扩大规模。在此过程中,可能会发现让业务更上一层楼甚至超越现有水平的机会。
人工智能相关内容
- 我尝试了一款本地、开源且完全免费的 Claude Code 替代工具,它是如何工作的
- 如何立即从 Windows 11 中移除 Copilot AI
- AI 正在悄悄自我毒害,推动模型走向崩溃,但有解决办法
- 如何识别 AI 图像:6 个表明它是假图像的明显迹象以及我常用的免费检测工具