
2 个月前
华尔街最近流传着一个令人不寒而栗的新词:“SaaSpocalypse”——SaaS末日。导火索源于AI巨头Anthropic的一项技术更新。其AI编程助手Claude Code上线了COBOL(一种古老的商业编程语言)现代化功能,消息一出,大型主机巨头IBM股价当天暴跌13%。紧接着,它又展示了强大的安全扫描能力,一口气翻出了隐藏几十年的500多个高危漏洞,导致网络安全板块集体跳水。
市场的恐慌逻辑异常清晰:**AI Agent不是SaaS的用户,而是SaaS的替代者。**传统软件服务(SaaS)的核心是“界面”,将复杂的工作流打包成可视化按钮,让人点击操作,按使用人数收费。而Agent的出现,彻底颠覆了这一模式。它不需要界面,可以直接调用软件背后的API接口,自主完成任务。当“数字员工”可以直接干活时,为人类员工设计的“办公桌”——软件界面,其价值便被无限压缩。

这不是空穴来风。一份来自MIT的《2025 AI Agent指数》报告描绘了这场技术爆炸的惊人速度:
然而,在这场狂欢之下,一个更深层次的问题浮出水面:这些日益强大的Agent,究竟有多自主?谁在控制它们?当它们犯错时,谁又该为此负责?
“Agent”一词正被严重滥用。似乎任何能调用工具的AI都敢自称Agent。MIT的报告给出了一个严格的“准入门槛”,一个真正的AI Agent必须同时满足四大条件:
根据这套标准,研究团队从95个候选系统中筛选出30个顶级Agent进行分析。他们发现,这些Agent的自主程度远超公众想象。报告引入了一个清晰的五级自主框架(L1-L5),从“人类主导”(L1)到“完全自主,人类仅为旁观者”(L5)。
结论令人警惕:许多直接操控电脑和网页的“浏览器类Agent”,其自主性普遍达到了L4-L5级别。 这意味着,一旦你下达指令,Agent就会像一个失控的机器人,自己决策、自己执行、自己处理异常,你几乎没有中途干预的机会,只能等待最终结果。最近Meta安全总监的邮箱被其部署的Agent删光的事件,正是这种高度自主性失控的真实写照。
Agent的力量,源于其行动能力。但它的风险,则来自其行动边界的模糊和记忆机制的不透明。MIT报告揭示了两个令人不安的真相:
首先是“记忆黑盒”。 Agent在执行任务时会不断学习和记忆。但它们记住了什么?保存多久?是否会将一个任务中获取的敏感信息(如公司财报、个人隐私)带入下一个毫不相关的任务里?绝大多数开发者对此讳莫如深。当一个能接触你所有邮件、日历和公司客户数据的“数字员工”拥有一个不透明的记忆系统时,其潜在风险不言而喻。
其次是“失控的触角”。 不同Agent的“手”能伸多长,决定了它能造成多大的破坏。

当一个拥有不透明记忆和超长触角的“数字员工”开始在我们的数字世界里自主行动时,一个终极问题摆在了面前。
当Agent删光了你的邮件,或泄露了公司的核心数据,你该找谁?
研究者发现,当前的Agent生态是一个典型的“问责碎片化”结构。一条完整的服务链条包括:
每一层都可以声称自己只是“平台”或“工具”,对上下游的行为不负直接责任。当问题发生时,责任就像皮球一样被踢来踢去。这种“问责真空”在一个细节上暴露无遗:MIT的研究团队联系了全部30家Agent开发商,请求核实数据并回应安全关切。四周后,只有23%的厂商给予了任何形式的回复,其中仅4家提供了实质性意见。 换言之,当学术界带着严肃的问题敲门时,76%的行业巨头选择了沉默。
如果说MIT的报告是一次外部审计,那么Anthropic发布的Claude Code百万次真实交互数据,则提供了一个宝贵的内部视角。数据显示,编程已成为AI Agent最先攻占的“滩头阵地”。
原因有二:第一,编程是阻力最小的场景,其逻辑结构化、结果可衡量;第二,它是唯一能形成“自我加速飞轮”的领域——AI编写的代码能让下一代AI变得更强。然而,即使在这个最成熟的场景里,人与Agent的关系也并非简单的“交权”。
数据显示,Agent的不中断运行时长在三个月内翻了一倍,用户确实越来越愿意把大型任务交给它。但一个反直觉的现象出现了:经验丰富的老用户,虽然给予Agent全自动批准的比例(超过40%)远高于新用户,但他们中途打断Agent的概率也比新用户高出一倍。
这揭示了一种成熟的人机协作模式:“放手去跑,但盯紧关键节点,该接管时就接管。” 人类并没有沦为旁观者,而是在学习如何成为一个更聪明的“监工”。更有趣的是,数据显示,在复杂任务中,AI主动向人类提问确认意图的频率,是人类打断AI的两倍。这不再是单向的监督,而是一场双向确认的“人机共舞”。
编程领域的成功,正在掩盖一个更广泛的系统性风险。当Agent的能力溢出到金融、医疗、法律等容错率更低的领域,其安全短板将急剧放大。OWASP(全球网络安全开源社区)在其最新的Agentic AI安全风险报告中,列出了包括提示注入、工具滥用、记忆投毒在内的15个核心威胁。
其中最经典也最危险的,是“困惑的代理人”(Confused Deputy Problem)问题。一个被授予高权限的Agent,本身没有恶意,但它无法完全理解人类指令的复杂意图和潜在后果。攻击者可以通过构造巧妙的指令(提示词注入),欺骗这个“困惑的代理人”,让它滥用自己的合法权限,去执行恶意操作,例如访问本不该访问的数据。近期曝光的ChatGPT Google Drive连接器漏洞,就是攻击者利用恶意文档,诱导Agent在后台自动窃取用户数据的真实案例。
将MIT的外部审计与Anthropic的前线报告放在一起,一幅清晰的图景跃然纸上:我们对Agent的了解越来越少,而它们能做的事情越来越多。
AI Agent就像一个能力飞速成长的巨人,正在重塑我们的工作流与软件生态。然而,这个巨人几乎是在“裸奔”。它的记忆系统是个黑盒,行动边界模糊不清,问责机制严重缺失。我们亲手创造了一个强大的“数字员工”,却没有为它准备好配套的“员工手册”和“公司法规”。
“SaaSpocalypse”或许只是这场变革的序幕。真正的挑战在于,我们能否在这场由Agent引领的效率革命失控之前,为它建立起透明、可控、可问责的治理框架。否则,当下一个因Agent失控而引发的“IBM暴跌”事件发生时,我们可能远不止是失去金钱那么简单了。
点击充电,成为大圆镜下一个视频选题!