ai-daily-digest 解决了什么问题
这个项目的信息处理链路值得拆解。它不依赖算法推荐的二手信息流,而是直接从 Simon Willison、Paul Graham、Dan Abramov、Gwern 等技术博主的博客抓取一手内容。根据实测数据,单次运行可扫描 89/92 个源(覆盖率 96.7%),抓取约 2500 篇文章,经时间筛选(48 小时窗口)缩减到约 40 篇,再通过 AI 在相关性、质量、时效性三个维度打分,最终输出 15 篇精选,生成一份约 260 行的结构化 Markdown 日报。
日报的内容结构设计得相当完整:宏观趋势总结(3-5 句话)、Top 3 必读文章(含中英双语标题、结构化摘要、推荐理由、关键词标签)、数据概览表格、话题标签云,以及按六大分类(AI/ML、安全、工程、工具/开源、观点/杂谈、其他)组织的完整文章列表。每篇文章附带 AI 评分(满分 30 分)、来源、发布时间和原文链接。
这意味着你每天花 5-10 分钟,就能完成过去可能需要一小时的信息扫描工作。
用 OpenClaw 三步完成部署
传统部署方式需要你手动安装 Node.js、克隆仓库、编辑 .env 文件、编写 bash 脚本、配置 crontab、自己写 Telegram 推送逻辑。OpenClaw 把这些步骤压缩成了对话式交互。
第一步:一句话启动安装。 在 OpenClaw 对话框中输入类似这样的指令:
https://github.com/vigorX777/ai-daily-digest
把这个安装上,加个 cron 计时任务,每日早晨 5 点发出,把返回结果发到 topic 6 里面
OpenClaw 会自动克隆项目、安装所有依赖、检测项目结构并准备执行环境。
第二步:配置 AI 接口。 项目默认使用 Gemini(免费),也支持任意 OpenAI 兼容接口。比如使用 DeepSeek:
配置 OpenAI 兼容的 API:
endpoint: https://api.deepseek.com/v1
key: sk-xxxxxxxxxxxxx
model: deepseek-chat
OpenClaw 会自动修改配置文件、测试 API 连接、生成一份测试日报验证配置是否正确。配置完成后会返回详细的确认信息,包括项目路径、cron 任务时间、输出语言、测试结果等。
第三步(可选):立即测试。 输入"现在发送一份",即可触发完整的抓取-评分-生成-推送流程,不必等到第二天早上。
整个部署过程中,传统方式需要经历的八个手动步骤——环境准备、克隆项目、配置 API、创建脚本、Cron 配置、Telegram 集成、测试验证、出错排查——在 OpenClaw 中全部通过自然语言交互完成。遇到问题时 AI 会自动诊断和修复,而不是让你去翻日志。
每日自动执行的完整流程
从实测数据看,每天早晨 5:00 触发后,整个流程大约 15 分钟完成:
- 5:00-5:05 — RSS 抓取与解析(10 路并发,15 秒超时)
- 5:05-5:10 — AI 批量评分
- 5:10-5:15 — 生成摘要与趋势分析
- 5:15 — 推送到 Telegram
除了 Telegram,项目也支持推送到飞书、企业微信、邮箱等渠道。信息源列表可以通过编辑 scripts/digest.ts 自定义,AI 模型可以一键切换。
延伸思考
这个案例的意义不只是"自动生成日报"本身。它展示了一种模式:把一个开源项目 + 一个自托管平台 + 定时任务组合起来,就能构建出完全自主可控的信息处理管线。数据不经过第三方平台,筛选逻辑透明可调,运行成本几乎为零(如果用 Gemini 免费额度)。对于独立开发者来说,这类"一次配置、持续产出"的自动化工作流,是用 AI 放大个人产能最直接的方式。
在信息过载的环境下,筛选能力本身就是生产力。与其每天被动接收算法推送的内容,不如自己定义信息源和筛选标准——这可能是一人公司在认知效率上能做的最划算的投资。