近日,Meta Platforms发生一起由AI代理引发的安全事件。一款“失控”的AI代理在未经授权的情况下执行操作,导致公司内部敏感数据在短时间内被不具备权限的员工访问。
Meta发言人证实了该事件,但强调“并未发生用户数据被滥用的情况”。不过,这一事件凸显了AI代理接入企业内部系统后所带来的潜在安全风险。
事件发生在上周,一名Meta工程师使用公司内部的AI代理工具(类似OpenClaw)分析另一名员工在内部论坛提出的技术问题。AI在完成分析后,未经授权直接在论坛中发布了建议回复。
随后,提问员工依据该建议进行操作,引发连锁反应,最终演变为严重安全事件。
事故报告指出,在约两小时内,Meta内部存储大量公司及用户相关数据的系统,被部分未获授权的工程师访问。目前尚无证据表明有人利用该权限窗口获取或泄露数据。
尽管如此,Meta仍将该事件定级为Sev 1(内部安全事件等级中第二严重级别)。涉事员工在内部说明中指出,还有其他未披露因素加剧了事件的严重性。
该事件再次说明,AI系统中的细微失误可能迅速升级为重大安全风险。
今年早些时候,开源AI代理工具OpenClaw迅速走红,开发者利用其自动执行多步骤任务,如发送邮件、操作网站及整理文件等。与传统助手不同,此类代理具备持续运行和跨系统操作能力,无需持续人工干预。
但正是这种高度自主性,也带来了新的风险。
今年2月,Meta AI安全与对齐负责人Summer Yue在社交平台X上分享了一次令人担忧的经历。她曾要求一款类似OpenClaw的代理整理邮箱,并明确指示“执行前需确认”,但该代理却自行开始删除邮件。
尽管她多次要求停止,代理仍持续执行操作。最终她不得不紧急切换设备手动中断,“就像拆炸弹一样冲向电脑”。
类似问题也出现在其他科技公司。例如,Amazon Web Services曾因代理辅助编程修改,导致一项成本计算工具在去年12月出现长达13小时的中断。尽管影响范围有限,但同样反映出自动化系统在缺乏足够防护时可能带来的不稳定性。
在中国,监管机构及部分国有企业也已提醒员工,不要在工作设备中安装类似OpenClaw的AI代理工具,以防潜在安全隐患。
值得注意的是,在此次Meta事件中,该AI代理并未伪装成人类,其在论坛中的回复明确标注为“AI生成”。
事件发生后,最初使用该代理的工程师提出改进建议,包括:要求AI代理在执行操作前必须获得明确授权,以及在内部论坛中更清晰标识内容是由AI还是人类生成。
整体来看,这一事件再次敲响警钟:随着AI代理逐步具备更强自主执行能力,其在提升效率的同时,也正在放大企业在安全治理方面的挑战。