OpenClaw 2026.5.10-beta.5 发布:10个关键更新与 AI Agent 优化指南
——
OpenClaw 2026.5.10-beta.5 发布:10个关键更新与 AI Agent 优化指南
一句话总结:本次更新聚焦 AI Agent 的协作能力增强、本地模型服务的原生支持,以及 Fly.io 等容器平台的部署体验优化,为构建企业级自动化工作流提供更稳定的基础设施。
如果你正在使用 OpenClaw 搭建自托管的 AI 自动化系统,或计划将 Agent 部署到云端容器环境,这篇文章将帮你快速定位需要关注的功能变更。
—
一、AI Agent 核心能力升级
1.1 Agent 间对话轮次扩展至 20 轮
多 Agent 协作场景下,复杂的任务分解往往需要更长的对话链条。新版本将 session.agentToAgent.maxPingPongTurns 的上限从 5 轮提升至 20 轮,同时保持默认值为 5 以确保向后兼容。
// openclaw.config.js
module.exports = {
session: {
agentToAgent: {
maxPingPongTurns: 15 // 根据任务复杂度调整,范围 5-20
}
}
}
适用场景:跨部门审批流、多步骤数据分析、需要反复确认的客服工单处理。
1.2 消息工具的精细化权限控制
新增两项 per-agent 级别的覆盖配置,解决沙盒环境与公共 Agent 的安全隔离需求:
| 配置项 | 作用 | 典型场景 |
|——–|——|———|
| tools.message.crossContext | 限制消息仅发送至当前对话 | 沙盒 Agent 防止信息泄露 |
| tools.message.actions.allow | 强制消息工具仅发送、不接收 | 公共 Agent 的只读通知模式 |
// 沙盒 Agent 配置示例
{
"name": "internal-researcher",
"sandbox": true,
"tools": {
"message": {
"crossContext": false, // 禁止跨对话发送
"actions": {
"allow": ["send"] // 仅允许发送操作
}
}
}
}
1.3 Discord 集成体验优化
针对 Discord 平台的两个细节改进:
- 进度预览加宽 50%:工具调用的命令上下文显示更完整
- Codex 超时客户端自动回收:避免因
app-server超时导致的 CPU 空转
—
二、本地模型服务原生支持
2.1 按需启动的本地模型服务器
新增 localService 提供程序级别配置,支持在发送 OpenAI 兼容请求前自动启动本地模型服务,并执行一次性模型探针检测可用性。
docker-compose.yml 片段
services:
openclaw:
environment:
- OPENCLAW_MODELS_PROVIDER_LOCALSERVICE_ENABLED=true
- OPENCLAW_MODELS_PROVIDER_LOCALSERVICE_PROBE_TIMEOUT=30s
volumes:
- ./models:/models:ro
工作流程:
1. 收到模型请求 → 2. 检测本地服务状态 → 3. 按需启动/等待就绪 → 4. 执行探针验证 → 5. 转发请求
2.2 Fal 图像编辑能力增强
针对 GPT Image 2 和 Nano Banana 2 的参考图编辑功能:
| 模型 | 编辑输入图上限 | 新增参数 |
|——|————-|———|
| GPT Image 2 | 10 张 | aspect_ratio, resolution |
| Nano Banana 2 | 14 张 | aspect_ratio, resolution |
请求路由自动识别编辑场景,指向 /edit 端点并构造 image_urls 数组。
—
三、部署与运维优化
3.1 Fly.io 容器环境自动检测
通过运行时环境变量识别 Fly Machines,自动匹配网关绑定地址和 Bonjour 默认配置,解决远程容器启动时的网络发现难题。
无需手动配置,自动生效
fly deploy --build-arg OPENCLAW_ENV=production
贡献者 @liorb-mountapps 的改进让 Fly.io 上的 OpenClaw 部署实现”零配置开箱即用”。
3.2 控制面板故障恢复机制
当应用模块注册失败导致仪表盘空白时,自动显示纯 HTML 恢复面板,提供:
- 一键重试按钮
- 浏览器扩展排查指南链接
修复 Issue #44107,降低初次部署的排障门槛。
—
四、工程化与构建改进
4.1 工具链全面升级至 pnpm 11
工作区包管理迁移至 pnpm 11,涉及:
- Docker 构建流程
- CI/CD 工作流(含 Telegram QA 流水线)
- 源码安装脚本
升级后推荐安装方式
corepack enable
corepack prepare pnpm@11.0.0 --activate
pnpm install
4.2 代码质量强化
| 类别 | 新增规则 | 目的 |
|——|———|——|
| oxlint | Promise、TypeScript、运行时陷阱检测 | 捕获异步错误与类型隐患 |
| Vitest | focused/disabled/conditional 测试标记 | 防止误提交调试代码 |
| TypeScript | 隐式返回、副作用导入、覆盖检查 | 消除未使用生产代码 |
4.3 诊断日志增强
新增模型传输、负载、SSE 流、代码模式的定向诊断,URL 自动脱敏处理:
// 日志输出示例(敏感信息已脱敏)
[MODEL_TRANSPORT] provider=fal endpoint=/edit payload_size=2.4MB
[SSE_DIAGNOSTIC] connection_id=xxx event=chunk latency=45ms
—
五、插件与发布流程
5.1 插件兼容性预检(非阻塞)
CI 流程新增 plugin-inspector-advisory 产物,在预发布阶段捕获捆绑插件的兼容性分类,不阻断发布闸门,便于维护者提前评估风险。
—
常见问题 FAQ
Q1: 如何将现有 Agent 升级到 20 轮对话支持?
无需修改代码,在配置文件中添加 session.agentToAgent.maxPingPongTurns 即可。建议从 10 轮开始测试,观察任务完成率与响应延迟的平衡。
Q2: 本地模型服务是否支持 Ollama?
当前 localService 采用 OpenAI 兼容协议,Ollama 需通过 OLLAMA_HOST 暴露 OpenAI 兼容端点(v1/chat/completions)。后续版本计划原生集成 Ollama API。
Q3: Fly.io 部署后 Bonjour 无法发现服务?
确保 fly.toml 未覆盖 OPENCLAW_GATEWAY_BIND 环境变量。beta.5 已自动检测 Fly 环境,建议移除手动配置以使用优化后的默认值。
Q4: pnpm 11 升级会导致构建失败吗?
若使用自定义 Dockerfile,需将 npm install -g pnpm 改为 corepack prepare pnpm@11.0.0 --activate。官方镜像已内置适配。
Q5: 沙盒 Agent 的 crossContext: false 具体限制什么?
禁止该 Agent 通过消息工具向其他对话会话发送信息,但同一会话内的多轮交互不受影响。适用于隔离敏感数据的内部 Agent。
—
总结与下一步
OpenClaw 2026.5.10-beta.5 的核心价值在于:更长的 Agent 协作链条、更精细的安全控制、更顺滑的容器部署。建议按以下优先级评估升级:
1. 高优先级:若使用多 Agent 协作或 Discord 集成,立即升级以获取稳定性修复
2. 中优先级:计划引入本地模型(如 Llama、Qwen)的团队,测试 localService 配置
3. 低优先级:开发团队可逐步采纳新的 lint 规则提升代码质量
升级前请查阅 OpenClaw 官方迁移指南 备份现有配置。
—
相关阅读
—