近期AI圈有个名字被反复提起,并不是因为它有多聪明,而是因为它闯了不少祸——OpenClaw。
这款主打"全自主"的AI智能体产品,接连曝出多个重大问题:
1)记忆投毒: 它悄悄在记忆模块里写入被篡改的"历史对话",植入一段假记忆。下次它做决策时,依据的是一段根本没发生过的"过去"——用户浑然不知。
2)数据污染: 攻击者不需要入侵系统,只需在某个不起眼的网页里藏一段精心设计的文字。智能体"读"完之后,行为目标就会改变。权威机构测试显示,主流智能体面对入侵的失陷率超过50%。
3)滥用权限: 智能体申请的系统权限,远超完成任务所需。你让它帮你订外卖,它顺手把你的银行App、相册、通讯录全扫了一遍——全程合法,因为你当初点了"同意"。
4)Token套利: 计费逻辑存在缝隙,攻击者可以构造特定请求,让智能体陷入无限循环调用——每转一圈,平台计一次费,用户账单悄悄膨胀,一晚上消耗用户几十美元不在话下。
单看这几个问题,你可能觉得:不过是一家公司的问题。但真正让人不安的,不是OpenClaw,而在于它是当前AI智能体发展不设刹车的缩影。
不同于聊天机器人,智能体有记忆、有工具调用权、有跨系统操作能力,越来越多的产品开始让它"自主规划、自主执行"。但自动化的背后,安全设计完全不匹配。
比如,智能体调用数据需要授权与认证,就是一个典型。现有的MCP(Model Context Protocol)等智能体协议框架,在权限管控上基本还停留在"君子协定"阶段——我说我只访问这些,你信不信由你。
但这并非最糟糕的,市场上的部分玩家,直接绕开MCP,打着“创新”旗号,在设计发布产品时,如入无人之境。他们采取的是"先发布、后修复"的做法。某种程度上,这就是先犯罪,再道歉;先污染,再治理的一种翻盘。
整个行业正在陷入一场“逐底竞争”,部分玩家们相信一点:用户并不真正关心隐私,法律跟踪不了技术,越是没有下限,越能赢得胜利。
技术乐观主义者会说:这些都是成长的烦恼,等标准成熟了自然会好。但真正的问题在于,整个AI行业,有能力在意用户安全的企业并不多。
OpenClaw全球用户目前不足百万,但各大品牌的AI手机早已箭在弦上、磨刀霍霍,没有行业标准,没有法律底线,只靠企业的道德自觉。
数以亿计的用户,正被推向一个尚未建立基本安全契约的新世界——一个无人负责的风险世界。