前几天看到人民日报在推 OpenClaw 的安全指南,我的第一反应不是这东西多好用,而是背后冒出了一点凉意。很多人把它当成更好用的搜索工具,但仔细看描述,它已经不再是那个只会回答问题的聊天框了,它更像是一个可以自主行动、长期打工的数字员工。
以前我们用 ChatGPT,主动权在自己手里。你问一句,它答一句;你合上电脑,它就消失了。但现在的 AI 变了,你给它一个目标,它自己去拆解任务、找插件、调数据,甚至你睡觉的时候,它还在后台不停地运行。
这种变化,本质上是我们把手里的执行权一点点交了出去。
问题也就在这。一个有高权限、能自动连插件、还能看你本地数据的系统,一旦跑起来,它就不再是个死工具,而是一个活的执行体。如果中途被黑客劫持了,或者插件里埋了雷,甚至权限配置出了一丁点差错,普通人根本察觉不到。后果可能是你的设备被远程控制,或者敏感隐私被悄悄读走。
现在的官方建议,比如最小权限、沙箱隔离,听起来很专业,但更像是给漏雨的屋顶塞几块瓦,没解决地基的问题。因为底层的逻辑没变:AI 到底怎么想的依然是个黑盒,权限还是中心化分配的,它的行为没法被随时验证。
如果只有几个人用,这种隐患还能忍。但往后看,满大街都会是 AI、机器人和自动化程序。在现在的结构下,你没法完全信任它们,也没法精准地管住它们,系统崩掉是早晚的事。
这也让我重新思考 @Fabric Foundation 和 $ROBO 到底在折腾什么。
Fabric 关注的不是某个 AI 到底多聪明,而是当这些数字执行体满街跑的时候,规则该怎么定,风险怎么控制。它在尝试给这群数字员工立规矩,让它们的每一个动作都有迹可循。
而 ROBO 的意义,不仅仅是给点奖励那么简单。它更像是一套带约束的记账本,让 AI 的每一次执行都有记录、有验证。这样一来,安全就不再指望开发商的人品,而是靠底层的结构来防患于未然。
说白了,现在的路子有两种:
一种是不断给 AI 贴安全补丁,祈祷它不出事;而 @Fabric Foundation 的思路是:默认一定会出事,所以从机制上就把损失控制在能承受的范围里。一个是短期救急,一个是长远打算。
所以回头再看 OpenClaw 这种能力越来越强的 AI,我们真正该关心的不是它能干多少活,而是它在什么样的笼子里干活。如果规矩不清楚,边界模棱两可,那它的能力越强,带给我们的不确定性就越大。
AI 的竞争已经到了下半场。这不再是模型参数的比赛,而是基础设施的较量。谁能先解决机器如何安全参与社会运行这个难题,谁才算真正拿到了下一关的门票。