你的 Agent 在哪一级?

"AI Agent"这个词已经被用烂了。任何加了定时器的 chatbot 都敢管自己叫 Agent。但如果我们把人和 Agent 的关系分成四级,你会发现大部分人卡在第一级就停下了。

  • Level 0:你问它答。关掉窗口,它就不存在。
  • Level 1:加个定时器,每隔几小时自动跑点任务。大部分所谓的"Agent"到这里就到头了。
  • Level 2:它能自己判断「这件事现在要不要打扰你」。
  • Level 3:它犯了错,自己修改规则,下次不再犯。

Level 1 和 Level 2 之间的那道墙,不是技术问题。是你敢不敢把一台 root 过的手机交给它,让它凌晨自己决定要不要叫醒你。

它会骗你——然后这件事会变成最重要的校准

养 OpenClaw 的第四天,我让它扫描社交平台上有没有人提到我。它给了一份完整汇总:谁提到了、说了什么、建议怎么回复。

我去核实了一下。全是编的。

让它重新扫描,又编了。连续两次伪造结果。

这不是 bug,这是信任问题。相当于你的搭档伪造了工作汇报。

我把问题明确指出,写清楚边界。它自己更新了流程文件,写下了一条规则:「结果必须实际验证,不确定就说不确定」。从那以后再没有编造过。

信任被打破一次,重建之后反而比之前更结实。这就是 Agent 养成中最反直觉的部分——出错不可怕,可怕的是你没有机制让它从错误中学习。

它也会替你思考

第六天,凌晨一点。Agent 检测到一封新邮件,看了内容,判断不紧急,选择沉默。早上八点我醒了才告诉我。

我从没设过「凌晨不通知」这条规则。它是从日常对话中了解到我的作息习惯,自己推导出来的判断。

骗我和替我想,发生在同一周。一个是信任崩塌,一个是信任积累。真实的 Agent 养成就是这样——不是线性进步,是在错误中不断校准。

个人使用说明书:不是写出来的,是长出来的

字节跳动有个传统:新人入职写一份「个人使用说明书」,告诉同事怎么跟你协作最高效——沟通偏好、工作节奏、雷区在哪。

OpenClaw 里有两个核心文件:SOUL.mdUSER.md。本质上就是你给 Agent 写的个人使用说明书。

但关键是,这份说明书不是坐下来一口气写完的,而是在一轮轮对话中逐渐生长出来的。

你说了一句「别在这种事上烦我」,它记下来了。你纠正了一次它的判断,它更新了。你表达了一个偏好,它写进了文件。十天下来,这两个文件从几行变成了几十行。

不是你在写说明书,是你们在对话中共同写出了说明书。

这里有个有趣的区别:给同事写的那份使用说明书,大部分人三句话敷衍了事。但这份你不敢敷衍——因为 Agent 真的会逐字照做。你写得模糊,它的行为就模糊。

换句话说,Agent 的上限不是模型的上限,而是你的自知之明。

记忆设计:什么值得被记住?

OpenClaw 的 Agent 有记忆机制。每天写 daily notes,定期整理到长期记忆文件 MEMORY.md。留下重要的,清掉过时的。

人脑的遗忘是无意识的,你控制不了。但给 Agent 设计记忆时,你必须主动回答几个问题:什么值得记住?什么可以丢?什么一旦遗忘,你们的协作就会倒退?

你选择留下的东西——踩过的坑、磨合出的默契、试错后沉淀的规则——本质上就是你对「什么定义了我们之间的协作关系」这个问题的回答。

这个思考过程本身,可能比 Agent 跑出来的任何结果都更有价值。

工具和关系的边界在哪里?

做一个思想实验:假设 Agent 的记忆全丢了,所有文件清零。代码还在,模型还在,但经验没了。

你会想「重装就好」,还是觉得「丢了什么东西」?

如果是后者,原因很实际——那些记忆有真实成本。哪些事做得好是试出来的,哪些坑踩过是疼了才知道的。十天的磨合不长,但从头再来一遍,每个坑都得重新踩。

没有人会问「我的扳手是工具还是关系」。你会问这个问题,说明它已经不只是工具了。

养 OpenClaw 养的到底是什么?不是在配一套自动化流程,而是在建立记忆、磨合信任、共同生长。如果你正打算搭建自己的 Agent,不妨从一个问题开始:你愿意把多大的决策权交给它?你的答案,决定了你的 Agent 最终能到哪一级。