OpenClaw 2026.4.12 发布:5大核心功能升级与 Active Memory 深度解析
一句话总结
OpenClaw 2026.4.12 版本通过 Active Memory 主动记忆插件、MLX 本地语音合成 和 Telegram 凭证池 等创新功能,让 self-hosted AI Agent 具备更自然的上下文记忆能力与更灵活的部署选项,显著降低多平台集成的运维成本。
—
为什么这次更新值得关注?
对于运行自建 AI Agent 系统的开发者来说,长期对话中的上下文断裂和多平台凭证管理一直是两大痛点。本次更新不仅解决了这些问题,还首次将 Apple Silicon 的本地 AI 能力深度集成到语音交互中。无论你是构建 Discord/Telegram 机器人,还是部署企业级网关服务,这些改进都能直接提升用户体验和系统可靠性。
—
核心功能详解
一、Active Memory:让 AI 真正”记住”对话
Active Memory 是本次最重要的功能 additions。它作为一个可选的记忆子代理,在主回复前自动注入相关偏好、上下文和历史细节——用户无需再说”记住这个”或”搜索记忆”。
#### 三种上下文模式
| 模式 | 说明 | 适用场景 |
|:—|:—|:—|
| message | 仅当前消息上下文 | 快速问答、简单指令 |
| recent | 近期对话摘要 | 日常多轮对话 |
| full | 完整历史检索 | 复杂项目追踪、长期关系维护 |
#### 配置与调试
启用 Active Memory 插件
openclaw config set memory.active.enabled true
设置上下文模式(message/recent/full)
openclaw config set memory.active.mode recent
实时查看记忆检索过程
openclaw chat --verbose
高级调优选项:
- Prompt 覆盖:自定义记忆检索的 system prompt
- Thinking 覆盖:调整推理深度与响应速度的平衡
- 转录持久化:可选开启调试日志,分析记忆命中质量
> 📖 完整文档:Active Memory 概念指南
—
二、macOS Talk:Apple Silicon 本地语音合成
针对隐私敏感场景,新版本新增 MLX 本地语音提供商,完全离线运行:
查看可用的语音提供商
openclaw talk providers list
启用 MLX 本地语音(实验性)
openclaw talk set-provider mlx --local
测试语音合成
openclaw talk "你好,这是本地合成的语音"
关键特性:
- 显式提供商选择:避免自动切换导致的意外网络请求
- 本地 utterance 播放:零延迟响应
- 打断处理:支持用户中途打断并重新输入
- 系统语音回退:MLX 加载失败时自动降级
—
三、Telegram 凭证池:多账号弹性调度
对于需要管理大量 Telegram Bot 的运维场景,新版本引入 Convex-backed 凭证池:
查看凭证池状态
openclaw qa credentials list
租赁临时凭证(用于测试/QA)
openclaw qa credentials lease --platform telegram --ttl 1h
释放凭证回池
openclaw qa credentials release
架构优势:
- 凭证集中加密存储于 Convex 后端
- 支持动态租赁与自动回收
- 与
openclaw qa suite集成,实现隔离的端到端测试
—
四、Gateway RPC 扩展:远程命令发现
网关服务新增 commands.list RPC,让远程客户端能够动态发现可用能力:
// 客户端示例:获取网关命令列表
const response = await gatewayClient.rpc('commands.list', {
surface: 'text', // 可选过滤:text, skill, plugin, native
includeMetadata: true // 返回参数序列化信息
});
// 响应示例
{
commands: [
{
name: 'reminder.set',
surface: 'skill',
description: '设置定时提醒',
arguments: {
time: { type: 'cron', required: true },
message: { type: 'string', required: true }
}
}
]
}
这为构建动态 UI 和第三方集成提供了标准化接口。
—
五、执行策略 CLI:本地工具权限管控
针对 tools.exec.* 的安全配置,新增本地管理命令:
查看当前执行策略
openclaw exec-policy show
应用预设策略(development/staging/production)
openclaw exec-policy preset production
自定义策略:禁止特定节点执行
openclaw exec-policy set --reject-node-host "untrusted-worker-*"
检测配置冲突
openclaw exec-policy set --dry-run
安全加固:
- 节点主机拒绝规则(node-host rejection)
- 回滚安全机制
- 同步冲突自动检测
—
其他重要改进
| 功能 | 说明 | 贡献者 |
|:—|:—|:—|
| Multipass QA 运行器 | 在隔离 Linux VM 中执行测试场景 | @shakkernerd |
| Matrix 实时打字效果 | MSC4357 标准支持,客户端显示逐字动画 | @TigerInYourDream |
| 私有网络访问控制 | 按提供商配置 allowPrivateNetwork,安全连接自建 OpenAI 兼容端点 | @qas |
| 文档 i18n 稳定性 | 分块翻译、截断检测、会话恢复 | @hxy91819 |
| Dreaming UI 简化 | Scene 和 Diary 界面优化,状态显示更清晰 | @davemorin |
—
FAQ
Q1: Active Memory 会显著增加 API 调用成本吗?
不会。Active Memory 的设计遵循”按需检索”原则:
- 仅在必要时触发记忆子代理
- 支持配置最大检索深度和 token 预算
recent模式使用本地缓存摘要,零额外 API 成本
建议从 recent 模式开始,根据实际效果逐步调整。
Q2: MLX 语音需要多少本地显存/内存?
在 Apple Silicon 设备上测试:
- M1/M2 (8GB 统一内存):基础语音合成流畅运行
- M2 Pro/Max 及以上:支持更高采样率和并发处理
首次使用时会自动下载约 500MB 模型文件,后续完全离线。
Q3: 如何迁移现有的 Telegram Bot 到凭证池架构?
迁移步骤:
1. 将现有 bot token 导入 Convex:openclaw qa credentials import --file tokens.json
2. 更新应用配置,使用租赁接口而非硬编码 token
3. 在 CI/CD 中集成 openclaw qa credentials lease 实现测试隔离
旧版硬编码方式仍兼容,但建议逐步迁移以获得弹性调度能力。
Q4: allowPrivateNetwork 配置是否存在安全风险?
该选项默认关闭,且遵循最小权限原则:
- 按单个提供商配置,不影响其他服务商
- 仅作用于模型请求层,与插件执行网络隔离
- 建议配合 mTLS 或内部 DNS 使用
安全示例:仅对自建端点启用
openclaw config set models.providers.my-openai.request.allowPrivateNetwork true
Q5: 本次更新是否包含破坏性变更?
无破坏性变更。所有新功能均为可选启用:
- Active Memory:默认关闭
- MLX 语音:需显式选择
- 凭证池:完全向后兼容
Gateway 和 CLI 的内部重构仅影响可维护性,不改变外部行为。
—
总结与下一步
OpenClaw 2026.4.12 的核心价值在于降低记忆管理的认知负担和扩展边缘部署的灵活性。建议开发者:
1. 立即尝试:在测试环境启用 Active Memory,体验”无感知”上下文保持
2. 评估场景:检查现有 Telegram/Matrix 部署是否可从凭证池受益
3. 关注实验功能:MLX 语音为隐私优先应用开辟了新可能
—
相关阅读
—