基本原理:定时任务 + 结构化 Prompt

整个流程的搭建并不复杂。Grok 本身具备抓取 X(Twitter)平台内容的能力,配合定时任务功能,设定好执行时间,就能自动生成过去 24 小时的 AI 领域热点简报。更轻量的日报需求甚至可以直接用 Grok 内置的定时功能完成,不需要额外搭建工作流。

但真正决定日报质量的,不是工具本身,而是喂给它的 Prompt。

一份可复用的日报生成 Prompt 模板

下面这套 Prompt 结构经过实际验证,适合生成"可直接发布"级别的中文日报。它的设计逻辑值得拆解,因为同样的框架可以套用到任何垂直领域的信息聚合场景:

1. 明确时间窗口和主题优先级

指定抓取"过去 24 小时"的内容,必要时补充 72 小时内仍在发酵的重大事件。主题按优先级分层——比如产品更新优先于行业趋势,工具链动向优先于纯研究进展。这一步很关键,不设优先级的话,AI 容易把所有信息拉平,日报就变成了流水账。

2. 设定筛选标准:热 + 有用

明确要求只收录"能带来认知增量、可复现、可行动、或被大量讨论"的内容,过滤掉纯情绪和无信息密度的噪音。同时做去重处理——同一事件只保留信息最全的一条,其余合并为补充来源。对争议信息要求标注"未确认/来源单一",不当作事实陈述。这些约束条件看似啰嗦,但少了任何一条,输出质量都会明显下降。

3. 规范输出格式

这是整个 Prompt 里最值得借鉴的部分。要求输出不使用项目符号,而是用自然段表达;正文分三个板块,每个板块 4-7 条要点;每条内容必须包含一句话结论、关键细节(数字/版本/影响)和检索关键词。全文控制在 2200-3200 字,信息量大时先保留最重要的 10 条,其余放附录。

4. 热度判断的多维标准

特别值得注意的是,Prompt 里对"热度"的定义不是简单看点赞数,而是综合考虑:引用转推密度、作者权重(是否为项目方或核心开发者)、是否引发二次解读、是否有多个独立来源交叉验证、是否涉及版本发布或安全事件。这套判断逻辑可以直接搬到其他内容聚合场景中使用。

5. 加入自检环节

Prompt 末尾要求 AI 做一次自检:是否覆盖了关键更新、是否把"热"转化成了"可用信息"、是否有未经证实的内容被写成确定事实。这一步容易被忽略,但它能有效减少 AI 的"幻觉"和信息遗漏。

怎么把这套方法用到自己的场景里

这套 Prompt 的框架是通用的。如果你在做独立开发、运营社区、或者需要跟踪某个垂直领域的动态,完全可以把主题优先级替换成自己关注的方向,把平台从 X 换成 GitHub、Hacker News 或者 Reddit,输出格式也可以按需调整成周报、竞品分析或者内部简报。

实际操作中有一个容易踩坑的地方:Prompt 写得太笼统,AI 会倾向于输出"面面俱到但什么都没说清"的内容。优先级分层和筛选标准写得越具体,输出质量越高。与其写"给我一份 AI 日报",不如像上面这样把时间窗口、主题权重、信息密度要求、格式约束全部写清楚。

如果你还没有自己的信息聚合工作流,不妨从这套模板开始,先跑一周看看效果,再根据实际输出逐步调优 Prompt。一个人做内容,最该自动化的就是信息收集这个环节。