核心组合:Obsidian + Claude Code + OpenClaw
OpenClaw 和 Claude Code 的组合能定时把各类信息自动存入 Obsidian——提示语、内容选题、邮箱订阅,全部归档。但把 URL、文件、图片丢给 OpenClaw 读取只是第一步,真正拉开差距的是定时任务和记忆系统的配合。
比如搭建一个"第二大脑",或者定时追踪某个领域的热门视频。入库的知识还能自动去重,在一个基础信息源上直接迭代出一系列有用的定时任务。
KimiClaw:更轻的接入方式
KimiClaw 是 Kimi 推出的手机对话端,不需要飞书的一堆权限就能在手机上操作 OpenClaw。它提供两种接入方式:
- 一键部署:自带联网搜索和 Clawhub 安装 Skills,40G 云盘存储,云端直接跑一个全新的 OpenClaw 实例,自动配好 K2.5 Thinking 模型和 Kimi Search 联网搜索,大概一分钟搞定。
- 关联已有实例:如果本地已经有一个长期使用的 OpenClaw,所有配置、记忆、已安装的 Skill 都会完整保留。不用重新配置,一直迭代一个主力实例就行。
第二种方式的价值更大。对于已经在用 OpenClaw 的人来说,避免重复配置、持续积累才是正确的路径。
做个预判:会有更多模型 App 把类似 OpenClaw 这样的 Agent 作为子功能集成进来,就像之前 App 只能对话,现在还能生图生视频生代码一样。
信息快速消化:定时抓取 + 自动摘要
第一个实操场景是 YouTube 视频追踪。安装一个专门处理 YouTube 视频的 Skill(therohitdas/youtube-full),然后设定指令:
- 每天早上 8 点,抓取关注频道的最新视频
- 针对过去 24-48 小时内发布的新视频,获取字幕,用 2-3 个要点总结核心内容
- 附上视频标题、频道名称及链接
- 记住频道偏好列表,方便随时增删
不想浪费 Token 的话,还有一招——让 KimiClaw 主动维护一个已处理视频列表来避免重复生成:
- 维护一个
seen-videos.txt文件,记录已处理的视频 ID - 仅针对文件中不存在的新视频获取字幕
- 处理完成后,将新视频 ID 写入文件
这个排重机制很简单,但省下来的 Token 是实打实的。
目标驱动的任务策划
主动性可以更进一步。让 KimiClaw 转职成目标管理教练——把个人长期目标告诉它,包括职业发展、产品发布、个人成长,然后让它每天早上 8 点根据这些目标,主动策划四到五项当天可以在电脑上完成的任务。
示例目标结构:
- 职业发展:小红书账号做到 10 万订阅;建立可复现的内容方法论与系列栏目
- 产品发布:Q3 前发布产品;以跑通核心闭环的 MVP 为交付标准
- 个人成长:每月阅读 1 本设计相关书;每本书输出结构化笔记并落地到内容或产品中
- 决策原则:优先做能同时推动增长与产品的事;优先做可复现可沉淀的事
如果你在开发自己的产品,还可以在提示语后面加一句:"根据今天我跟你的对话信息,开发一个能解决我问题的小应用原型(MVP)。"灵感不会缺的。
KimiClaw 支持 HTML 预览,这些任务系统还可以做成看板展示,用 Next.js 构建一个 Kanban Board,包含"待办"、"进行中"和"已完成"三列,任务完成时实时同步状态。
邮件订阅的自动过滤与进化
另一个大类信息是邮件里的长文。单独给 AI 配一套邮箱账号,用 Playwright MCP 去订阅优质内容源,做 RSS 订阅也行(目前容易断连,这块还有优化空间)。
然后设定定时任务:
- 每天晚上 8 点读取过去 24 小时内的所有订阅邮件
- 提炼核心要点摘要,附上原文链接
- 完成后询问对内容筛选的评价
- 根据反馈更新记忆,不断优化筛选偏好
关键在最后一步——这个系统能根据反馈自我进化。比纯用 RSS 或者网页版工具总结多个网页好用很多,因为 OpenClaw 有长期记忆,筛选偏好会越来越精准。
左脚踩右脚:用 Agent 自动扩充信息源
对于不熟悉但需要持续关注的领域,有一个"原地飞天"的提示语策略,用一段时间就能积累一两百个优质信息源。
以财报追踪为例:
- 每周日 18:00 运行定时任务,搜索下周科技与 AI 公司的财报日历
- 过滤出关注的公司(NVDA、MSFT、GOOGL、META、AMZN、TSLA、AMD 等)
- 等待人工确认具体追踪哪几家
- 为每家公司的财报发布时间分别设置单次定时任务
- 财报发布后立即抓取结果,整理格式化摘要:超预期/逊于预期、营收、EPS、核心指标、AI 相关亮点、业绩指引
- 记录常追踪的公司,以便每周自动推荐
一个定时任务触发一系列精准的单次任务,这才是 Agent 该有的调度能力。
最终形态:Obsidian 作为知识库
KimiClaw 连上本地 OpenClaw 后,可以安装 obsidian-direct 的 Skill,直接把 Obsidian 作为知识库。这也是前面所有链路打通的最终目的。
回过头来看这套体系的演进逻辑:联网搜索解决了模型实时获取信息的问题,DeepResearch 解决了短时间获取大规模专业知识的问题,而一个带定时任务和长期记忆的 Agent,解决的是"看了就忘"和"知识库维护成本太高"的问题。
知识库是给 AI 看的,我们看 AI 的输出就好。这句话听起来极端,但对于一人公司来说,这可能就是信息处理效率的天花板该在的位置。当前这条"Agent + 定时任务 + 长期记忆"的路线,壁垒不在工具本身,而在你喂给它的偏好数据和迭代深度——用得越久,别人越难追上。