问题很可能不是模型不够强,而是你把最贵的模型用在了不该用的地方。这就好比你请了一位时薪 15 美元的架构师来帮你倒垃圾——能干吗?能。值吗?显然不值。

OpenClaw 的多模型调度机制,解决的正是这个问题:让不同能力、不同价位的模型各司其职,用最少的成本换取恰到好处的智能输出。

先搞清楚:每个模型擅长什么

在决定怎么调度之前,你得先了解手上有哪些"员工"可用。下面这张能力矩阵值得收藏(价格仅供参考,以官方最新定价为准):

模型 提供商 成本(/百万 token) 擅长 弱点
Claude Opus 4.6 Anthropic 高($15+) 复杂推理、架构设计、深度分析 贵、慢
Claude Sonnet 4 Anthropic 中($3) 编码、日常对话、性价比之王 超长文本稍弱
Claude Haiku 3.5 Anthropic 低($0.25) 快速响应、简单任务 能力有限
GPT-5 / GPT-4o OpenAI 中高 多模态、通用能力强 代码稍弱于 Claude
Gemini 2.0 Pro Google 中($3.5) 超长上下文(100 万 token) 中文稍弱
Gemini 2.0 Flash Google 极低($0.075) 速度快、最便宜 推理能力一般
Kimi K2.5 Moonshot 低($0.5) 中文长文本、写作、推理 代码一般
DeepSeek V3 DeepSeek 极低($0.1) 便宜、中文好 复杂推理一般

注意看价格差距——Opus 和 Flash 之间差了 200 倍。如果你的 Cron 定时任务每天用 Opus 跑,一个月可能多花 15 美元;换成 Gemini Flash,效果一样,成本降低 99%。

那么问题来了:什么任务该用什么模型?

一棵决策树,帮你快速选型

与其每次纠结,不如建立一套简单的判断逻辑:

任务开始
   │
   ▼
是编码任务?
   │
   ├── 是 → 复杂架构/系统设计?
   │           ├── 是 → Claude Opus 4.6(最强推理)
   │           └── 否 → Claude Sonnet 4(性价比之王)
   │
   └── 否 → 需要超长上下文(>100k token)?
               ├── 是 → Gemini 2.0 Pro(100万 token 上下文)
               └── 否 → 是自动化/Cron/Heartbeat?
                           ├── 是 → Gemini 2.0 Flash(最便宜)
                           └── 否 → 是中文写作?
                                       ├── 是 → Kimi K2.5(中文最强)
                                       └── 否 → Claude Sonnet 4

翻译成更直觉的速查表:

场景 推荐模型 理由
日常对话 Claude Sonnet 4 综合能力强、性价比高
复杂架构设计 Claude Opus 4.6 最强推理能力
代码审查/重构 Claude Sonnet 4 代码理解力强
中文写作/博客 Kimi K2.5 中文写作质量最好
Cron/Heartbeat 定时任务 Gemini 2.0 Flash 最便宜,自动化够用
超长文档处理 Gemini 2.0 Pro 100 万 token 上下文
多语言翻译 GPT-4o / GPT-5 多语言能力强
快速问答 Gemini 2.0 Flash 响应快、便宜

在 OpenClaw 中配置多模型策略

理解了选型逻辑,接下来是实际操作。

第一步:设置全局默认模型和别名

~/.openclaw/openclaw.json 中定义你的模型白名单:

{
  "agents": {
    "defaults": {
      "model": "anthropic/claude-sonnet-4",
      "models": {
        "opus": {
          "id": "anthropic/claude-opus-4-6",
          "alias": "opus"
        },
        "sonnet": {
          "id": "anthropic/claude-sonnet-4",
          "alias": "sonnet"
        },
        "flash": {
          "id": "google/gemini-2.0-flash",
          "alias": "flash"
        },
        "kimi": {
          "id": "moonshot/kimi-k2.5",
          "alias": "kimi"
        }
      }
    }
  }
}

这里有个容易忽略的细节:只有在 agents.defaults.models 中列出的模型,才能通过 /model 命令切换。所以提前把你常用的模型都注册好。

第二步:会话中随时切换

对话过程中,一条命令就能切换模型:

你:/model flash
AI:已切换到 Gemini 2.0 Flash(别名"flash")

你:查一下今天天气
AI:(用超便宜的 Flash 模型回答)

你:/model opus
AI:已切换到 Claude Opus 4.6(别名"opus")

这才是多模型调度的精髓——不是选一个模型用到底,而是根据当前任务的复杂度随时切换。遇到需要深度推理的问题切 Opus,处理完立刻切回 Sonnet 或 Flash,就像开车换挡一样自然。

第三步:用 CLI 管理模型

# 查看所有可用模型
openclaw models list

# 查看模型状态(是否可用、延迟)
openclaw models status

# 设置默认模型
openclaw models set anthropic/claude-sonnet-4

# 添加别名(让切换更方便)
openclaw models aliases add cheap google/gemini-2.0-flash
openclaw models aliases add code anthropic/claude-sonnet-4
openclaw models aliases add hard anthropic/claude-opus-4-6

给别名起个有语义的名字——cheapcodehard——比记模型全名方便得多。

第四步:为自动化任务指定模型

Cron 定时任务是最容易浪费钱的地方,因为它每天自动跑,你可能根本没注意到它在烧钱:

openclaw cron add \
  --name "daily-news" \
  --cron "0 6 * * *" \
  --tz "Asia/Shanghai" \
  --session isolated \
  --model "google/gemini-2.0-flash" \
  --message "采集新闻..."

--model 参数显式指定便宜模型,这一步千万别省。

Sub-agent 同理,在生成子任务时指定模型:

{
  "name": "sessions_spawn",
  "arguments": {
    "description": "写后端API",
    "model": "anthropic/claude-sonnet-4",
    "prompt": "..."
  }
}

这套思路的本质

多模型调度的核心不是技术配置,而是一种资源分配思维:贵的做难事,便宜的干杂活。模型各有性格——有的推理强但慢,有的便宜但够用,有的中文好但代码一般。了解它们的长短板,才能做到"省而不拙"。

对于一人公司来说,这一点尤其重要。你没有企业级预算,但你有灵活调度的自由。把省下来的钱花在真正需要强模型的关键环节上,整体效果反而更好。

不妨回头看看你现在的 OpenClaw 配置:有没有哪些定时任务,其实完全可以换一个便宜 40 倍的模型来跑?