OpenClaw遭遇安全信任危机:开源AI框架的供应链风险

 · 

OpenClaw爆火之后没多久就遇到了一个棘手的问题——有人在npm上发布了名称相似的恶意包,试图冒充OpenClaw的官方依赖。

事件经过

攻击者注册了几个和OpenClaw官方包名称非常接近的npm包(典型的typosquatting攻击),里面嵌入了恶意代码。部分不仔细看包名的开发者误安装了假包。

好在恶意代码被社区成员发现得比较快,npm也在接到举报后几小时内下架了这些包。但已经有少量开发者受到了影响。

暴露的问题

这个事件暴露了开源AI框架的供应链安全问题。AI agent框架通常有大量的第三方依赖,每一个依赖都是潜在的攻击面。

更深层的风险是:AI agent框架自带执行代码的能力。如果框架本身被植入恶意代码,它可以利用agent的执行权限做更多破坏——比如窃取环境变量中的API密钥、访问文件系统、发送网络请求。

应对措施

OpenClaw团队后续做了几件事:

  • 在官方文档中明确了包名和验证方式
  • 加强了发布流程的安全审查
  • 建立了安全漏洞通报机制

更大的图景

这不是OpenClaw独有的问题。整个AI工具链的供应链安全都在快速扩大的攻击面前显得脆弱:

  • 模型权重可能被篡改(Hugging Face上偶有发现)
  • MCP Server可能包含恶意功能
  • Agent框架的依赖链可能被污染
  • 提示模板可能嵌入注入攻击

AI应用的”信任链”比传统软件更长也更复杂,安全意识和工具都需要跟上。

参考来源:GitHub安全公告、开发者社区讨论