这揭示了一个被 90% 的人忽略的铁律:AI 输出的质量,严格正比于你投喂信息的密度。 把 AI 当生成器,产出垃圾;把它当高密度信息的处理器,产出黄金。
以下是一套经过实战验证的「人工 RAG」论文写作工业化闭环,核心思路同样适用于任何深度长文写作。
第一阶段:高密度信息采集——拒绝让 AI 瞎编
多数人的致命误区是直接让 AI "写一篇关于 XXX 的文献综述"。这时 AI 调用的是通用语料库存货,大概率编造不存在的作者和论文。正确做法是先做高密度信息采集,三个层级递进:
1. 泛读与线索发现:Google 搜索 AI 模式
适合公开论文、政策文件和新闻报道的初筛。核心优势是"所见即所得"——点击引用链接直达高亮原文,快速过滤营销号垃圾,锁定期刊或官方来源。
2. 深度学术检索:NotebookLM 的来源搜索
NotebookLM 不只是学习工具,更是文献检索利器。它的数据源涵盖 Arxiv、Google Scholar 等高质量学术库。开启 Deep Research 模式后,它会生成研究报告并附带十余篇文献,一键导入即可作为对话语料,省去逐个搜索下载的繁琐。
3. 兜底大招:手动 RAG
特定领域文献(如知网付费论文、内部数据)仍需亲自动手。前往知网、Arxiv、各大期刊官网下载 PDF,导入 NotebookLM 辅助阅读。正如 Teriki 的做法——只有经过亲手筛选、确认过的高信度文献,才是喂给 AI 的"特供有机食材"。
这一步偷懒,后续必产"屎山"。
第二阶段:清洗与内化——只有懂了,才能问对
这是最关键也最容易被跳过的环节。AI 是能力杠杆,但杠杆的支点必须是你自身的认知深度。
用 NotebookLM 构建私人知识库
将筛选后的论文 PDF 导入 NotebookLM,它会为每篇文献生成来源指南(摘要)和关键词,帮你快速消化内容。与 NotebookLM 对话时,它严格尊重文献原文——每句输出都附带引用序号,点击即跳转高亮原文,帮你快速吃透文献。
补充一点:NotebookLM 的笔记现已支持导入 Gemini 进行进一步分析,Gemini 可以读取笔记本中所有来源文档的全文内容。但目前 Gemini 无法识别用户与 NotebookLM 的对话记录,这点仍有待改进。
专家模式 vs 小白模式
- 熟悉领域时:你清楚知道要什么,AI 是最强助理,指哪打哪,效率飞升
- 不熟悉领域时:你连问题都定义不清,AI 只能带你入门,甚至会被你的错误指令带偏
写学术论文,如果你自己没读懂文献,根本无法判断 AI 的分析对不对。只有掌握了课题,才能设计出精准的提示词,指导 AI 按你的逻辑去归纳和处理。
第三阶段:推理与生成——从 0 到 0.5,再到 1
手握高密度信息和清晰认知后,才轮到生成环节。但绝不要直接说"给我输出一篇论文"。
正确的生成策略:
- Step-Back Prompting(退一步提示):放上论文草稿,问 AI "基于这些文献,目前的研究空白在哪里?逻辑矛盾是什么?"
- 暴露你的无知:提出自己的写作方向、方法论和想法,让 AI 作为资深导师进行批判性评价,查漏补缺——这是从 0 到 0.5 的过程
- 基于充分上下文生成:当上下文足够丰富、逻辑链条足够清晰时,AI 输出的就不再是词语堆砌,而是具备严密逻辑和详实数据的高质量作品
这里推荐使用 Gemini Deep Think,它引入并行思考架构,能同时探索 16 条推理路径,专为验证逻辑、解决难题、发现盲区而设计。
核心公式
整个工作流可以提炼为一个公式:
Google 搜索 AI 模式 + NotebookLM(探矿、洗矿,提纯高密度信息)→ Deep Think(精密加工)→ 你的认知(通过 Prompt 全程指挥)
最终产出的文章,既有 AI 的效率,又有你的灵魂,每一个引用都经得起推敲。
在 AI 时代,写作的门槛看似降低了,实则"真相的门槛"变高了。那些直接让 AI 瞎编的人,终将被垃圾淹没;而愿意做"人工 RAG"、带着脑子阅读和喂数据的人,才能把 AI 变成手中最锋利的剑。