OpenClaw 新增小米原生模型支持:如何配置 xiaomi-native 与 mimo-v2.5
——
OpenClaw 新增小米原生模型支持:如何配置 xiaomi-native 与 mimo-v2.5
一句话总结
OpenClaw 最新 commit 正式集成 小米 AI 模型生态,开发者现在可以通过统一的 providerEndpoints 配置,直接调用 xiaomi-native 和 mimo-v2.5 两大模型能力,无需额外适配代码。
本文将解决以下问题:如何在新版 OpenClaw 中启用小米模型、配置参数有何差异、以及实际开发中的最佳实践。
—
为什么需要小米模型支持?
随着国产大模型的快速迭代,小米 AI 凭借其在端侧部署和多模态交互上的优势,成为 AI Agent 开发的重要选项。mimo-v2.5 作为小米最新一代对话模型,在中文理解和响应速度上表现突出;而 xiaomi-native 则提供了更深度的系统级集成能力。
此前,开发者需要自行编写适配层才能接入小米模型。OpenClaw 此次更新通过标准化的 providerEndpoints 机制,将接入成本降至零。
—
核心更新详解
新增模型入口一览
| 模型标识 | 类型 | 适用场景 |
|———|——|———|
| xiaomi-native | 原生接口 | 需要深度系统集成、调用小米设备能力的场景 |
| mimo-v2.5 | 对话模型 | 通用文本生成、多轮对话、客服助手等 |
providerEndpoints 配置方法
在 OpenClaw 的配置文件中,新增以下节点即可启用:
openclaw.config.yaml
providerEndpoints:
xiaomi:
- name: "xiaomi-native"
baseUrl: "https://api.xiaomi.com/native/v1"
apiKey: "${XIAOMI_API_KEY}" # 从环境变量读取
defaultModel: "native-pro"
- name: "mimo-v2.5"
baseUrl: "https://api.xiaomi.com/mimo/v2.5"
apiKey: "${XIAOMI_API_KEY}"
defaultModel: "mimo-2.5-chat"
timeout: 30000 # 毫秒,可选
关键参数说明:
name:模型入口标识,在 Agent 代码中通过此名称调用baseUrl:小米官方 API 端点,不同模型对应不同地址defaultModel:默认使用的子模型版本timeout:请求超时时间,mimo-v2.5建议设置为 30 秒以上
—
实战:在 Agent 中调用小米模型
场景一:使用 mimo-v2.5 构建客服助手
// agent.js
import { OpenClaw } from '@openclaw/core';
const claw = new OpenClaw();
// 初始化对话 Agent,指定 mimo-v2.5 作为底层模型
const customerServiceAgent = await claw.createAgent({
name: 'xiaomi-support',
provider: 'mimo-v2.5', // 对应配置中的 name
systemPrompt: 你是小米产品专家,擅长解答手机、智能家居相关问题。
回答需简洁专业,控制在 100 字以内。,
memory: true // 启用多轮对话记忆
});
// 执行对话
const response = await customerServiceAgent.chat('小米 14 和 14 Pro 有什么区别?');
console.log(response.content);
场景二:通过 xiaomi-native 控制智能设备
// device-controller.js
const deviceAgent = await claw.createAgent({
name: 'home-automation',
provider: 'xiaomi-native',
// xiaomi-native 支持函数调用(Function Calling)
tools: ['query_device_status', 'control_device', 'scene_trigger']
});
// Agent 可自主决策调用哪个工具
const result = await deviceAgent.execute('把客厅灯调到暖光模式,亮度 50%');
// 输出:{ action: 'control_device', device: 'living_room_light', params: {...} }
—
配置验证与调试
1. 检查模型可用性
使用 OpenClaw CLI 测试连接
openclaw provider test xiaomi-native
openclaw provider test mimo-v2.5
预期输出:
✓ xiaomi-native: Connected (latency: 45ms)
✓ mimo-v2.5: Connected (latency: 38ms)
2. 查看详细日志
在环境变量中开启调试模式:
export OPENCLAW_LOG_LEVEL=debug
export OPENCLAW_LOG_PROVIDER=xiaomi # 仅查看小米相关日志
—
常见问题 FAQ
Q1: 小米模型 API Key 如何获取?
访问 小米 AI 开放平台 注册开发者账号,在「模型服务」-「API 管理」中创建密钥。注意区分测试环境与生产环境的 Key 权限。
Q2: mimo-v2.5 与 xiaomi-native 该如何选择?
- 纯文本对话场景 → mimo-v2.5(成本更低、响应更快)
- 需要设备控制/系统级能力 → xiaomi-native(支持 Function Calling 和小米账号体系)
Q3: 可以同时配置多个小米模型吗?
可以。providerEndpoints.xiaomi 是数组结构,支持配置任意数量的模型入口,只需确保 name 唯一即可。
Q4: 遇到 “provider not found” 错误怎么办?
检查 OpenClaw 版本是否 ≥ 0.9.3(此功能引入版本),然后运行:
openclaw doctor --fix
该命令会自动同步最新的 provider 定义。
Q5: 小米模型支持流式输出(Streaming)吗?
mimo-v2.5 完整支持 SSE 流式响应,配置方式:
const stream = await agent.chatStream('讲一个科幻故事');
for await (const chunk of stream) {
process.stdout.write(chunk.content);
}
xiaomi-native 的流式支持取决于具体调用的能力接口,建议查阅 小米官方文档 确认。
—
总结与下一步
本次更新让 OpenClaw 的模型生态更加完善。核心要点:
1. 通过 providerEndpoints 统一配置,两行代码接入小米模型
2. mimo-v2.5 适合通用对话,xiaomi-native 适合深度集成
3. 利用环境变量管理 API Key,确保安全性
建议下一步行动:
- 阅读 OpenClaw 多模型路由最佳实践
- 探索 小米 AI 能力全景图
- 在 GitHub Discussions 分享你的使用案例
—
相关阅读
—