断更 9 天,大的终于来了!就在刚刚,OpenClaw 迎来 3.22 最大版本升级,插件架构大换血,GPT-5.4 登场,安全防护再升级。
连续 9 天 GitHub 停更,OpenClaw 终于憋出了一个王炸!
刚刚,Peter Steinberger 重磅官宣 ——OpenClaw「2026.3.22-beta.1」预览版上线。
3.22 版本最引人注目的是,对「插件系统」进行了彻底的重构——
全新公开插件 SDK(openclaw / plugin-sdk/*)上线,彻底废弃了旧有的扩展 API。
同时,OpenClaw 官方确认了将 ClawHub 插件作为分发的首选渠道,显著提升了生态的纯净度。
安全,也是这一次的重头戏。针对 Windows 用户,系统新增了拦截,对执行环境进行了加固。
值得一提的是,OpenClaw 模型配置也升级到了 GPT-5.4。
此外,UI 交互、长对话压缩机制、Android 端深色模式,以及多平台通知逻辑也得到了精细化修复。
OpenClaw 新版一出世,全网陷入了狂欢,许多人跃跃欲试。
如今的龙虾,变得更强了!
这一次的更新,绝非是小打小闹,而是一次深入底层架构的大修。
早在预告阶段,OpenClaw 之父一张龙虾镇场图,暗示了 9 天未更的大动作。
今天这个重磅升级,终于让所有人见识到了什么才是真大招!
一句话帮你抓住这次更新的核心:
1.插件系统换骨:旧 API 一刀切,新 SDK 全面接管,ClawHub 成官方首选分发渠道
2.安全大修:Windows 凭证泄露、环境变量注入、Unicode 审批伪装,十多个漏洞一次性封堵
3.模型阵营扩军:GPT-5.4 默认上位,MiniMax M2.7 整合,Anthropic Vertex 正式接入
4.体验逐帧打磨:Android 深色模式、飞书交互卡片、Telegram 话题自动命名、长对话压缩机制迭代
这次 3.22 最核心的变化,一句话概括 ——OpenClaw 的插件生态,换骨了。
旧的 openclaw / extension-api 被彻底移除,没有兼容层,没有过渡期,一刀切。
取而代之的是,全新的 openclaw / plugin-sdk/* 模块化接口。
这个改动有多狠?所有已有的第三方插件,只要还在用旧 API,全部需要迁移。
官方甚至连旧有的 nano-banana-pro 图像生成技能包装器都一并干掉了,统一走agents.defaults.imageGenerationModel路径。
与此同时,插件安装的默认来源也变了。以前执行 openclaw plugins install,系统直接从 npm 拉包。
现在,ClawHub 成为首选 —— 只有 ClawHub 上找不到的包,才会回退到 npm。
之所以要这么做,是因为 npm 本质上是个通用包管理器,谁都能发包,质量参差不齐;而 ClawHub 则是 OpenClaw 官方维护的插件市场,审核更严、来源更可控。
插件生态的「净化运动」,正式开始了。
更值得关注的是「生态」兼容性扩展。
3.22 新增了对 Claude、Codex、Cursor 三大主流开发工具插件包的发现与安装支持,能把外部插件包里的 Skills 自动映射到 OpenClaw 的技能体系中。
也就是说,以后你在 Cursor 里用的好用插件,有可能直接搬进 OpenClaw 跑起来。
从一个封闭的工具框架,到一个能吸纳外部生态的开放平台 —— 这一步,迈得非常果断。
如果说插件重构是面向未来的布局,安全修复就是对当下最紧迫的回应。
3.22 一口气打了十多项安全补丁,其中几个相当关键。
第一个大洞:Windows 上的SMB凭证泄露。
之前攻击者可以通过构造特殊的 file://或 UNC 路径,在媒体加载环节触发 Windows 自动发起 SMB 认证握手。
这时,你的龙虾以为自己正要加载一张图片,但实际上却是在把你的 Windows 登录凭证往外送。
3.22 在核心媒体加载和沙盒附件路径中全面拦截了这类远程路径。
第二个:执行环境沙盒加固。
新版直接封锁了 MAVEN_OPTS、SBT_OPTS、GRADLE_OPTS 等 JVM 注入路径,堵住了 GLIBC_TUNABLES 利用通道,还拦截了.NET 的 DOTNET_ADDITIONAL_DEPS 依赖劫持。
简单说,主流构建工具链的环境变量注入攻击,一次性全堵上了。
第三个:Unicode 零宽字符审批伪装。
之前有人发现可以用不可见的韩文填充码位(Hangul Filler)来伪装执行命令的审批提示,让操作者在审批时看不到真实的命令内容。3.22 在网关和 macOS 原生审批界面中全面转义了这类字符。
第四个:语音通话 Webhook 的预认证防护。
旧版本允许未认证的调用者以 1MB/30 秒的大缓冲窗口消耗服务器资源。新版把预认证的 body 读取限制压到 64KB/5 秒,并限制了单 IP 的并发预认证请求数。
对公网部署的用户来说,这一版不是「建议更新」,是「必须更新」。
模型层面,3.22 做了几个实打实的升级。
默认 OpenAI 模型正式切换到 GPT-5.4,同时预置了 gpt-5.4-mini 和 gpt-5.4-nano 的前向兼容支持,模型一上线就能无缝接入。
MiniMax 方面,默认模型从 M2.5 升级到 M2.7,还合并了此前分离的 API 和 OAuth 两个插件入口,统一成单一的 minimax 插件,配置复杂度大幅降低。
另一个亮点是 Anthropic Vertex 正式接入 —— 现在可以通过 Google Vertex AI 直接调用 Claude 模型,包括 GCP 认证和自动发现。
对已经在 Google Cloud 上跑业务的团队来说,这条路径的价值不言而喻。
此外,xAI 的 Grok 目录同步到了最新版本,Z.AI的 GLM 也更新到了 4.5/4.6 系列,Mistral 的定价元数据终于不再显示「零成本」的误导信息。
OpenClaw 作为「模型路由器」的定位,正在被越来越多的一线大模型厂商认可。
这类更新不炸眼球,但用起来最有感。
Android 端终于支持了跟随系统的深色模式,从引导页到聊天页到语音页全覆盖。Control UI 新增了「圆角滑块」,用户可以自定义界面的圆角程度,从锐利到全圆自由调节。
Telegram 那边动作不小,新增了 DM 论坛话题的自动重命名 ——
首条消息进来后,系统会用 LLM 生成一个有意义的话题标签,不再是一串无意义的 ID。还支持了静默错误回复模式,机器人的报错信息可以选择不发出通知提示音。
飞书的升级同样值得一提。
新增了结构化交互审批卡片和快捷操作启动卡片,支持了当前会话的 ACP 和子智能体绑定,还补上了推理流(Reasoning Stream)的渲染 —— 思考过程以 Markdown 引用块的形式实时显示在同一张卡片里。
浏览器集成方面,旧的 Chrome 扩展中继路径被彻底移除,转而支持通过 userDataDir 直接连接 Brave、Edge 等 Chromium 内核浏览器。
沙盒系统也迎来了架构升级,新增了可插拔的后端支持,首批上线了 OpenShell 和 SSH 两个后端,沙盒管理不再绑定 Docker 单一方案。
Agent 层面有几个值得单独说的点。
长对话压缩机制(Compaction)做了多轮迭代。
新版在压缩过程中会自动延长运行截止时间,避免大型会话压缩到一半被超时杀掉。
压缩后还会自动修复孤立的 tool_result 块,不让历史记录中的残余数据炸掉后续的 Anthropic 请求。空会话的压缩也终于不会陷入死循环了。
默认 Agent 超时时间从 600 秒,直接拉到了 48 小时。
跑长任务的 ACP 会话,终于不用再被 10 分钟的默认限制卡脖子。
还有一个贴心的新功能:/btw 命令。在对话过程中,你可以随时用 / btw 插入一个「旁白问题」,AI 会快速回答但不影响当前会话的上下文。
就像跟同事开会时,侧过身低声问一句题外话,问完继续开会。
9 天,一次大版本。
这种更新节奏说明一件事:OpenClaw 团队已经过了「堆功能冲 Star」的阶段,开始认真做工程了。
从升级点中不难看出,这是一款产品在同一时间,朝着「可信赖的 AI 智能体平台」这个目标,做了一次全面收拢。
这些升级可能不会出现在宣传海报上,但它们决定了谁敢把 OpenClaw 拉进生产环境。
敢用,比好用更难。
Peter Steinberger 和他身后那群全球极客,显然已经想明白了这件事。
龙虾不睡觉。🦞
参考资料:
https://x.com/steipete/status/2036020395200090484?s=20
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。