OpenClawCN 中文资料站开始 · 文档 · 进阶 · 动态 · 支持

功能

模型提供商与故障转移

基于官方 providers 文档,整理 OpenClaw 常见 provider、默认模型写法、fallback 思路和长期运行时的配置重点。

最后更新2026-03-24
内容来源OpenClaw Docs
来源类型official

AI 摘要

这页重点

核心结论

基于官方 providers 文档,整理 OpenClaw 常见 provider、默认模型写法、fallback 思路和长期运行时的配置重点。

适用主题

功能

高频关键词

providers / models / fallback / openrouter / ollama

可信信号

最后更新 2026-03-24来源 OpenClaw Docs

模型提供商与故障转移

本站已经有“模型怎么选”的中文说明,但对官方 provider 体系、模型命名方式和 fallback 机制还不够完整。官方中文站现在把 providers 作为一个独立总入口,这说明模型问题在 OpenClaw 里不只是“选哪家强”,而是正式的系统配置层。

OpenClaw 的模型写法是什么

官方文档给出的默认模型写法是:

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "anthropic/claude-opus-4-5"
      }
    }
  }
}

它的核心规则很简单:

  • 使用 provider/model 形式
  • 先认证 provider
  • 再把默认模型指到对应 provider 下的具体模型

这比只写“模型名”更稳,因为它把提供商边界写明了。

官方 provider 范围比很多人想象的大

根据官方中文 providers 页面截至 2026 年 3 月 17 日的目录,OpenClaw 不只是支持少数几家常见云模型。页面里明确列出的包括:

  • Anthropic
  • Amazon Bedrock
  • Claude Max API 代理(社区工具)
  • Deepgram(转录)
  • GitHub Copilot
  • GLM Models
  • MiniMax
  • Moonshot AI
  • OpenCode
  • Ollama
  • OpenAI
  • OpenRouter
  • Qianfan
  • Qwen
  • Synthetic
  • Venice AI
  • Vercel AI Gateway
  • Xiaomi MiMo
  • Z.AI

而当前 providers 列表里还额外出现了:

  • Cloudflare AI Gateway
  • Hugging Face
  • Kilocode
  • LiteLLM
  • Mistral
  • NVIDIA
  • Together AI
  • vLLM

还有专门的转录提供商,例如 Deepgram。

这意味着“接 provider”本身已经是一个正式能力面,而不是第三方折腾。

官方现在把“统一网关型 provider”单独做出来了

最新 providers 页里已经不只是列 API 厂商,而是把下面这些也单独列入正式路径:

  • LiteLLM
  • Cloudflare AI Gateway
  • Vercel AI Gateway

这说明 OpenClaw 已经把“上游模型厂商”和“统一网关/路由层”都当成正式 provider 入口来处理。

对长期运行来说,这特别有意义,因为它让你可以把:

  • 成本统计
  • 路由
  • 缓存
  • 多上游切换

放到更清晰的一层里理解。

官方对 Venice 的定位仍然很明确

中文 provider 文档里把 Venice 单独做了亮点推荐,用于隐私优先推理,并给出了默认模型和更强组合。

这说明官方并不只在推 OpenAI 或 Anthropic,而是在强调不同 provider 适合不同目标:

  • 隐私
  • 成本
  • 稳定性
  • 本地化或区域可达性

Transcription provider 现在也不该和聊天 provider 混着理解

截至 2026 年 3 月 17 日,官方 providers 总页已经把 Deepgram 单独列到“转录提供商”部分。

这意味着:

  • 聊天主模型 provider 是一层
  • embeddings / memory 可能是另一层
  • 音频转录 provider 又是另一层

所以“我已经配好了模型”并不等于“语音 / 转录 / 记忆相关 provider 都已经完整配置”。

为什么 fallback 应该被当成正式配置

虽然 provider 总览页更偏目录,但结合官方其他文档可以看出,长期运行环境里默认只依赖一个 provider 风险很高。

更适合的理解方式是:

  • primary 负责主路径
  • fallback 负责 provider 波动、限速或临时不可用时的兜底

尤其在真实渠道已经接入时,fallback 不是锦上添花,而是减少单点故障的基本手段。

本地 Ollama 在体系里是什么角色

官方把 Ollama 放进正式 provider 目录里,这一点很重要。它说明本地模型不是“站外玩法”,而是官方认可的提供商路径之一。

更适合本地模型的场景通常是:

  • 实验
  • 隐私敏感任务
  • 预算有限时的补充
  • 某些低风险离线路径

但如果你需要稳定工具调用和长期高质量主会话,仍然更适合保留一个稳定云端主 provider。

Provider 认证和聊天授权不要混淆

官方其他页面已经多次体现出一条边界:聊天能用,不代表所有 provider 相关能力都自动可用。

例如:

  • 聊天主模型认证
  • embeddings 认证
  • 转录 provider
  • 远程或代理 provider

都可能是分开的,而且最新官方目录已经用页面结构把这件事表现得更清楚了。

所以“已经能聊天了”不等于“记忆搜索、本地转录和 fallback 都配置好了”。

更稳的 provider 配置顺序

如果你准备做长期运行,建议按这个顺序:

  1. 先选一个主 provider
  2. 确认认证和默认模型都正常
  3. 再加一个 fallback
  4. 最后再补本地模型或区域性 provider

不要一开始就把很多 provider 一起堆上去,否则排错会非常痛苦。

中文站建议怎么理解 provider 页面

官方 provider 总页更像一个“能力目录”,不是最终配置教程。更适合的使用方式是:

  1. 先从总页确认支持哪些 provider
  2. 再按你所在地区、预算和任务类型选几家
  3. 最后再回到本站的模型策略文档做主力/fallback 设计

一个更贴近 2026 年 3 月官方目录的理解方式

如果你要快速给当前 provider 体系分层,可以这样看:

  • 直接上游:Anthropic、OpenAI、Moonshot、MiniMax、Qwen、GLM、Z.AI、Xiaomi 等
  • 统一网关:LiteLLM、Cloudflare AI Gateway、Vercel AI Gateway、OpenRouter
  • 本地 / 自托管:Ollama、vLLM
  • 补充能力:Deepgram 这类转录 provider
  • 社区或兼容层:Claude Max API Proxy、Synthetic 等

2026 年 3 月 24 日的中文 provider 观察

近期公开可访问的中文教程站和社区文章,在介绍 provider 时有一个很明显的倾向:会优先强调国内可用、中文能力和本地模型,而不是完整覆盖官方 provider 目录。

这对第一次入门很友好,但也容易让人忽略两件事:

  • OpenClaw 的 provider 体系其实比中文文章里常出现的几家更大
  • provider 页面本质上是“能力目录”,不是最终选型答案

这轮整理时重点参考了:

结合官方资料和中文外部资料,当前更值得长期保留的判断有三条:

1. 中文资料更常提到的 provider,不一定就是唯一值得看的 provider

Moonshot、Qwen、Qianfan、Ollama 在中文环境里确实更常被讨论,但这不代表:

  • OpenRouter
  • LiteLLM
  • Cloudflare AI Gateway
  • Vercel AI Gateway

这类更偏路由层和统一网关层的 provider 就不重要。

2. 中文团队更适合先分“直连上游”和“统一网关”

如果你要的是:

  • 简单接入
  • 尽快跑通

那直连上游 provider 更直观。

如果你要的是:

  • 成本治理
  • 多上游切换
  • 更统一的入口

那统一网关型 provider 反而更值得早点考虑。

3. provider 页更适合先用来缩小范围,再回到策略文档决策

更稳的顺序通常是:

  1. 先从 provider 总览确认可选范围
  2. 再按区域、预算和组织条件缩小到几类
  3. 最后回到模型策略文档决定主力、fallback 和本地补位

下一步推荐

继续阅读

把文档串成一条阅读路径

如果你正在系统理解 OpenClaw,优先沿着文档顺序继续看;如果只是查某个点,也可以跳回文档中心按分类选择。

关联入口

同主题、同路径、同阶段