昊梵体育网

失控AI引发Meta严重安全危机

上周近两小时,Meta员工因一名AI代理提供了不准确的技术建议而获得了对公司和用户数据的未授权访问,正如《The Inf

上周近两小时,Meta员工因一名AI代理提供了不准确的技术建议而获得了对公司和用户数据的未授权访问,正如《The Information》先前报道的那样。Meta发言人Tracy Clayton在接受《The Verge》采访时表示,此次事件期间“没有用户数据被误用”。

一名Meta工程师使用了内部AI代理,Clayton将其描述为“在安全开发环境中类似于OpenClaw的性质”,来分析另一位员工在内部公司论坛上发布的技术问题。但该代理在分析后自行公开回复了该问题,且未事先获得批准。该回复本应仅展示给提出请求的员工,而不是公开发布。

随后,一名员工依据AI的建议行动,而该建议“提供了不准确的信息”,导致了Meta使用的第二高严重等级 “SEV1” 安全事件。该事件短暂地让员工能够访问他们本不被授权查看的敏感数据,但问题已随后得到解决。

AI代理终于足够优秀了吗?

根据Clayton的说法,涉及的AI代理本身并未采取任何技术行动,除了发布不准确的技术建议,这本可以由人类同样完成。然而,人类可能会进行进一步测试并在分享信息前作出更完整的判断——而且目前尚不清楚最初触发答案的员工是否打算公开发布该答案。

“与系统交互的员工完全清楚自己在与自动化机器人沟通。这一点在页脚的免责声明以及该员工在该线程中的回复中都有体现,”Clayton对《The Verge》评论道。“该代理除回答问题外未采取其他行动。如果当时负责执行该建议的工程师更了解情况或进行其他检查,这本可以避免。”

上个月,开源平台OpenClaw的一名AI代理在Meta再次失控,当时一名员工让它在收件箱中筛选邮件,结果未经许可删除了邮件。像OpenClaw这样的代理的初衷是能够自行采取行动,但和其他AI模型一样,它们并不总是能正确解释提示和指令,或给出准确的回应,Meta员工已经第二次发现了这一点。

#AI# #Meta# #机器人#