一套真实运行的自动化任务矩阵
这位开发者基于 Claude Max 订阅(非 API 按量计费),用 cron 定时任务驱动了十多个自动化 Agent,覆盖信息监控、内容生成、数据分析等场景:
| 任务 | 频率 | 模型 | 平均耗时 | 周运行次数 | 估算 token/次 |
|---|---|---|---|---|---|
| 飞猪航班监控 | 每小时 | Sonnet 4.5 | ~30s | 168 | ~12k |
| 热点扫描(×2) | 每天×2 | Opus | ~43s | 14 | ~50k |
| 推特日报 | 每天 | Opus | ~80s | 7 | ~100k |
| Linear 日报 | 每天 | Opus | ~110s | 7 | ~100k |
| AI 雷达 | 每天 | Opus | ~160s | 7 | ~150k |
| OpenClaw 日报 | 每天 | Opus | ~22s | 7 | ~30k |
| 推文复盘 | 每天 | Opus | ~130s | 7 | ~120k |
| YouTube KOL 追踪 | 周二×2 | Opus | ~37s | 2 | ~40k |
| 竞品追踪 | 周一 | Opus | ~40s | 1 | ~50k |
| 舆情报告 | 周一 | Opus | ~49s | 1 | ~50k |
| 自动更新 | 周一 | Opus | 较短 | 1 | ~10k |
| PostHog 数据报告 | 每天 | Opus | 待定 | 7 | ~30k |
这张表本身就是一份很好的「一人公司自动化清单」模板——从产品数据到竞品情报,从内容生产到舆情监控,几乎覆盖了一个小团队日常运营的全部信息需求。
资源消耗全景
汇总下来,每周的消耗大约是:
- Opus:约 53 次/周,消耗 4-5M tokens
- Sonnet 4.5:约 168 次/周,消耗 2M tokens
- 合计:每周 6-7M tokens
其中三个「大户」是推特日报、推文复盘和 AI 雷达,它们占了 Opus 消耗的约 60%。而飞猪航班监控虽然每小时都跑,但因为用的是 Sonnet 且单次 token 少,反而不怎么费资源。
模型选择的实用策略
这里有一个很实际的经验:不是所有任务都需要最强模型。几条优化建议:
- 推特日报、AI 雷达、推文复盘这类信息整理类任务,换成 Sonnet 4.5 质量差别不大,但能显著降低 Opus 的 rate limit 压力
- 热点扫描同理,两个时段的扫描任务也可以降级到 Sonnet
- 临时性的监控任务(比如特定时间段的航班监控)用完记得关掉,避免无意义消耗
核心思路就是:只在需要深度分析、复杂推理的任务上用 Opus,信息抓取和格式化整理交给 Sonnet 就够了。
对一人公司的启发
这套方案的价值不在于具体跑了哪些任务,而在于它展示了一种模式:一个人 + 一组定时 Agent = 一个信息团队的产出。航班监控、竞品追踪、舆情分析、内容日报——这些过去需要多人协作的工作,现在用 cron + LLM 就能 7×24 自动运转。如果你也在用 Claude Code,不妨从一两个高频信息需求开始,逐步搭建自己的自动化矩阵。