OpenClaw 新增 Bedrock Mantle 支持:5 步接入 Amazon OpenAI 兼容 API
OpenClaw 新增 Bedrock Mantle 支持:5 步接入 Amazon OpenAI 兼容 API
OpenClaw 最新版本新增了对 Amazon Bedrock Mantle 的原生支持,让你可以通过熟悉的 OpenAI 兼容 API 格式调用 AWS Bedrock 的先进模型。本文将详细介绍这一新功能的配置方法和使用技巧。
什么是 Bedrock Mantle?
Bedrock Mantle 是 Amazon Bedrock 提供的 OpenAI 兼容 API 接口,与现有的 bedrock-runtime (ConverseStream) 端点不同,它拥有独立的模型目录,包括一些在 ConverseStream 中不可用的模型,例如:
- openai.gpt-oss-120b
- mistral.devstral-2-123b
这意味着你可以使用标准的 OpenAI API 格式来调用这些强大的模型,无需学习新的 API 规范。
5 步快速配置 Bedrock Mantle
第 1 步:获取 Bedrock API 密钥
登录 AWS 控制台,进入 Amazon Bedrock 服务,创建 API 密钥。你可以选择以下两种认证方式之一:
方式 A:长期有效的 Bedrock API 密钥
在 AWS 控制台生成,直接作为 Bearer token 使用
export AWS_BEARER_TOKEN_BEDROCK="your-bedrock-api-key"
方式 B:预生成的 SigV4 派生令牌
使用 aws-bedrock-token-generator 生成
export AWS_BEARER_TOKEN_BEDROCK="sigv4-derived-token"
第 2 步:设置环境变量
在你的系统环境变量或 .env 文件中添加:
export AWS_BEARER_TOKEN_BEDROCK="br_xxxxxxxxxxxx"
export AWS_REGION="us-east-1" # 选择支持的区域
第 3 步:验证配置
运行以下命令验证 OpenClaw 是否正确识别了 Bedrock Mantle 提供程序:
openclaw doctor
你应该能看到类似以下的输出:
✓ amazon-bedrock-mantle: configured
Region: us-east-1
Auth: API key (Bearer token)
第 4 步:查看可用模型
OpenClaw 会自动发现并列出 Bedrock Mantle 支持的模型:
openclaw models list --provider amazon-bedrock-mantle
可用模型包括:
- openai.gpt-oss-120b – OpenAI 的 120B 参数开源模型
- mistral.devstral-2-123b – Mistral 的 123B 参数开发版本
- 以及其他 Bedrock 支持的模型
第 5 步:开始对话
现在你可以使用 Bedrock Mantle 模型进行对话:
openclaw chat --model amazon-bedrock-mantle/gpt-oss-120b
或在交互式会话中切换模型:
/model amazon-bedrock-mantle/gpt-oss-120b
支持的区域
Bedrock Mantle 目前在以下 12 个 AWS 区域 可用:
| 区域代码 | 位置 |
|———|——|
| us-east-1 | 美国东部(弗吉尼亚)|
| us-east-2 | 美国东部(俄亥俄)|
| us-west-2 | 美国西部(俄勒冈)|
| ap-northeast-1 | 亚太地区(东京)|
| ap-south-1 | 亚太地区(孟买)|
| ap-southeast-3 | 亚太地区(雅加达)|
| eu-central-1 | 欧洲(法兰克福)|
| eu-west-1 | 欧洲(爱尔兰)|
| eu-west-2 | 欧洲(伦敦)|
| eu-south-1 | 欧洲(米兰)|
| eu-north-1 | 欧洲(斯德哥尔摩)|
| sa-east-1 | 南美洲(圣保罗)|
Bedrock Mantle vs bedrock-runtime 对比
| 特性 | Bedrock Mantle | bedrock-runtime |
|——|—————-|—————–|
| API 格式 | OpenAI 兼容 | AWS 原生 Converse |
| 认证方式 | Bearer Token | SigV4 / IAM |
| 模型覆盖 | 包含独占模型 | 标准 Bedrock 模型 |
| 错误处理 | OpenAI 风格 | AWS 风格 |
| 适用场景 | 快速迁移 OpenAI 代码 | 深度 AWS 集成 |
FAQ
Q1: Bedrock Mantle 和标准的 OpenAI API 有什么区别?
Bedrock Mantle 提供 OpenAI 兼容的 API 格式,但底层使用的是 Amazon Bedrock 的基础设施和模型。主要区别在于:
- 认证使用 AWS Bedrock API 密钥而非 OpenAI API 密钥
- 支持 AWS 区域选择
- 可用模型目录与 OpenAI 官方不同
Q2: 如何切换不同的 AWS 区域?
通过设置 AWS_REGION 环境变量:
export AWS_REGION="eu-west-1"
openclaw chat --model amazon-bedrock-mantle/gpt-oss-120b
或在 OpenClaw 配置文件中指定默认区域。
Q3: 遇到 “rate limit” 错误怎么办?
OpenClaw 会自动处理 Bedrock Mantle 的速率限制错误,包括:
- 自动重试请求
- 指数退避策略
- 上下文溢出检测
如果持续遇到限制,考虑:
1. 切换到不同区域
2. 升级 AWS 账户的 Bedrock 配额
3. 使用 openclaw chat --fast 启用快速模式
Q4: 这个提供程序是默认启用的吗?
是的,amazon-bedrock-mantle 插件默认启用(enabledByDefault: true)。只要设置了 AWS_BEARER_TOKEN_BEDROCK 环境变量,OpenClaw 会自动发现并配置该提供程序。
Q5: 可以同时在多个区域使用吗?
可以。你可以在配置文件中定义多个 Bedrock Mantle 配置,每个指向不同区域:
{
"providers": {
"bedrock-mantle-us": {
"type": "amazon-bedrock-mantle",
"region": "us-east-1"
},
"bedrock-mantle-eu": {
"type": "amazon-bedrock-mantle",
"region": "eu-west-1"
}
}
}
总结
OpenClaw 新增的 Bedrock Mantle 支持让开发者能够无缝接入 Amazon Bedrock 的先进模型,同时保持与 OpenAI API 的兼容性。通过简单的环境变量配置,你就可以:
1. ✅ 使用熟悉的 OpenAI API 格式
2. ✅ 访问 Bedrock 独占的先进模型
3. ✅ 在 12 个 AWS 区域灵活部署
4. ✅ 享受 OpenClaw 的错误处理和重试机制
下一步行动:
- 访问 AWS Bedrock 控制台 创建 API 密钥
- 运行
openclaw doctor验证配置 - 尝试与
gpt-oss-120b或devstral-2-123b模型对话
—
参考来源
—
本文发布于 2026-04-05,内容基于 OpenClaw 最新版本更新。