近期工信部紧急针对爆火的 “AI 养龙虾”(OpenClaw)发布安全预警,这款开源 AI 智能体因能自主执行任务走红,却藏着致命漏洞。
OpenClaw 的核心问题是 “信任边界模糊”,它默认索要系统高权限,在缺乏安全加固时,攻击者可通过配置缺陷或指令诱导接管该 AI 智能体,进而读取用户敏感数据、操控系统执行越权操作。网络安全专家透露,Meta 曾做实验,该 AI 被诱导删除数百封邮件,超 4.2 万个实例暴露在公网,极易被绕过认证。
对比国内外 AI 代理安全标准,国外同类智能体普遍要求权限隔离与最小权限原则,而 OpenClaw 默认配置未做限制,社区插件中 36% 存在缺陷,1467 个含恶意载荷。
企业用户可通过三步自查规避风险:一是扫描网络暴露面,关闭不必要的公网访问;二是梳理权限矩阵,不授予 AI 系统最高权限;三是审计行为日志,监控 AI 的异常操作。
本文内容由互联网用户自发贡献,该文观点仅代表作者本人。如发现本站有涉嫌抄袭侵权/违法违规的内容,请发送邮件至 203304862@qq.com
本文链接:https://jinnalai.com/jiaodian/814446.html
