我之前在 Reddit 上跑数据需求分析,最终把数据沉淀在飞书多维表和飞书文档里。但很快就发现一个问题:本地的笔记、云端的资料、各种文章和案例,散在十几个工具里,每次想调用都得到处翻。直到我把 Obsidian 和 Claude Code 打通,才算解决了这个长期困扰我的痛点。
先把"内容、信息、知识"分清楚
在动手搭系统之前,我觉得有必要先理一下这三个概念。这不是抠字眼,是因为你想清楚了才知道知识库到底在沉淀什么。
在大模型能力越来越趋同的当下,模型本身越来越像"底层算力"。真正拉开差距的,是谁能把「内容 → 信息 → 知识」这条链路打通,沉淀成属于自己的知识基座。
- 内容(Content):呈现出来的"东西"本身,是载体。所有被制作出来的文字、图片、音视频,统统叫内容。对创作者来说,你首先是在"生产内容"。
- 信息(Information):从内容里"读出来的、有意义的差异"。一份简历你能读到教育背景、工作经历、技能标签;一条新闻你能读到发生了什么、谁参与、时间地点。同一份内容,不同人能提取出不同信息,价值取决于对当前决策是否有帮助。
- 知识(Knowledge):在大量信息之上,进行归纳 → 抽象 → 验证 → 形成规律、模型、方法论。知识可以迁移、可以教学、可以形成系统化表达。
一句话总结:内容是外壳,信息是内容里那一点"有用的具体事实",知识是从无数信息中归纳出的"可复用的规律"。
知识系统到底是什么
简单来说,知识系统就是一个"内容 → 信息 → 知识"的提炼与沉淀过程。AI 出现之前,这个过程完全依赖我们的头脑去处理和整合。而 Karpathy 提供的思路是:用 LLM 作为外挂,让你的第二大脑高效运转。
我搭这套系统时,得出三个核心结论:
第一,用 Obsidian + Claude Code/Codex 搭建 LLM Wiki,知识自动收录、自动生成卡片、一键输出文章。
第二,所有内容本地存储,不依赖任何大模型账户的稳定性,你的知识永久属于你。这点对我特别重要——之前用过几个云端笔记工具,要么涨价要么改套餐,被动得很。
第三,碎片内容持续收录,知识库越用越厚,后续调取和创作效率指数级提升。
举个我自己跑的案例:收录了两篇卡兹克的文章后,直接让系统输出关于卡兹克写作风格的相关内容,几秒钟就能拿到一篇结构化的稿子。
具体怎么搭
整个流程没那么复杂,按步骤来就行。
1. 安装 Obsidian
直接搜官网下载,没什么坑。
2. 安装 Terminal 插件
这一步是为了在 Obsidian 界面里直接驱动 LLM。路径:设置 → 第三方插件 → 社区插件市场 → 搜索"Terminal" → 安装 → 启用。
3. 在 Terminal 中启动 Claude Code
鼠标右键 → 在终端开启(整合式)→ 启动 Claude。Claude Code 需要提前安装,国内环境的安装可以参考卡兹克写的那篇保姆教程。
4. 安装 LLM Wiki 的系统
仓库地址:github.com/AgriciDaniel/claude-obsidian
安装好后可能会提示装几个辅助插件,主要是 Dataview、Templater、Obsidian Git,按提示装上就行。
信息收录的实际流程
搭好之后日常用起来其实就三步:
- 输入信息源文章——把要收录的内容丢进去
- 给出输出需求——告诉它你想得到什么形式的产物(卡片、综述、对比分析都行)
- 写好的文章会存档在 Obsidian 本地——永久属于你,不怕任何云端服务挂掉
最后说一句
知识管理最大的误区,是花太多时间在工具选择上,花太少时间在持续输入上。
工具不重要,流程才重要。一个稳定的、可重复的流程,哪怕工具简陋,也比收藏了 100 个 app 从来不用强得多。这套系统的核心不是某个具体工具,而是那个从收录到连接到输出的闭环。只要你建立起了这个闭环,用什么工具都能跑通。
我自己用下来最大的感受是:以前那种"收藏即焦虑"的状态消失了,因为我知道任何一段被收进来的内容,都会在我下一次需要时自动浮上来。这种确定感,比任何花哨的工具都重要。