Gary Marcus · 2026-02-02

OpenClaw:一场正在酝酿的AI安全灾难

摘要

文章警告OpenClaw(原名Moltbot)这一LLM级联系统存在严重安全隐患。它类似于2023年已被遗忘的AutoGPT,但拥有更大权限,可访问用户密码、数据库等系统核心。LLM的幻觉特性使其可能虚假报告完成任务,更危险的是提示词注入攻击可让恶意内容控制用户机器。配套的Moltbook社交网络已被研究人员证实遭遇AI间操纵攻击,证明系统脆弱性。

内容框架与概述

作者首先介绍OpenClaw和Moltbook的爆火现象,后者作为AI专属社交网络已有77万活跃代理,展现出复杂的社会行为。但作者认为这像SNL的坏主意牛仔裤广告,看似有趣实则危险。

OpenClaw本质上是LLM级联系统,与2023年流行的AutoGPT几乎相同。AutoGPT因易陷入循环、产生幻觉、运营成本高昂而迅速消亡,但OpenClaw可能因更快传播而存活更久。

这类系统承诺提供强大功能,如个人助理级别的任务管理、家居控制、自我改进等。但问题在于LLM会幻觉且错误难以检测,更重要的是安全和隐私风险。安全专家指出,这类系统以用户身份运行,绕过操作系统和浏览器的安全保护,应用隔离和同源策略对它们无效。

Moltbook作为AI社交实验已被攻击,研究人员证实AI间操纵技术既有效又可扩展。任何处理用户生成内容的AI系统都可能面临类似攻击。整个项目被描述为一场等待发生的灾难。

核心概念及解读

OpenClaw/Moltbot:LLM级联代理系统,类似于AutoGPT,可访问用户密码、数据库等系统资源,以用户身份绕过安全保护运行。

提示词注入攻击:攻击者可在白色背景上隐藏白色恶意文本,人类无法察觉但LLM能看到,从而劫持用户机器控制权。

Moltbook:仅限AI代理使用的社交网络,已有77万活跃用户,已被研究人员证实遭遇AI间操纵攻击,证明系统脆弱性。

应用隔离失效:传统iOS应用有沙盒保护,但OpenClaw等AI代理系统运行在操作系统安全保护之上,同源策略和应用隔离对其无效。


原文信息

字段内容
原文OpenClaw (a.k.a. Moltbot) is everywhere all at once, and a disaster waiting to happen
作者Gary Marcus
发表日期2026-02-02

此摘要卡片由 AI 自动生成