基础交互:别急着让它写代码

AI 的基础能力再强,模糊的指令依然会产出模糊的结果。一个好的提示词应该包含四个要素:

  • 目标:你需要构建或修改什么
  • 上下文:相关的代码文件、文档或错误信息
  • 约束:架构要求、代码规范、安全限制
  • 完成标准:任务完成的客观条件,比如测试通过、Bug 修复

面对复杂或模糊的任务,切忌直接让 AI 生成代码。应该先进入「计划模式」,或者让 AI 反向提问,把思路理清、假设排除之后再动手。这一步很多人会跳过,但恰恰是复杂项目成败的分水岭。

代码生成之后也不能就此收工。要求 AI 编写测试、运行代码检查、进行自我审查——建立一个完整的验证闭环,才能保证交付质量。

知识沉淀:把经验写进配置文件

每次对话都重复交代项目背景,是巨大的效率浪费。解决方案是 AGENTS.md。

把它理解为「写给 AI 的 README」:在里面定义项目结构、构建和测试命令、代码约定、禁忌事项。一旦写好,AI 每次启动时自动加载这些规范,省去大量重复输入。这个设计很实用,尤其是多人协作或项目周期较长时,效果立竿见影。

在工作流配置层面,通过 config.toml 文件固化个人或项目的偏好设置,比如模型选择和推理深度。权限管理上建议遵循最小权限原则——初始阶段保持严格的沙盒和审批模式,随着信任建立再逐步放宽。

能力跃迁:让 AI 连接外部世界

当 AI 需要获取代码库之外的动态信息或操作外部工具时,MCP(Model Context Protocol)是打破信息孤岛的关键。通过 MCP 接入,AI 可以直接与你现有的工具链实时交互,而不是局限在本地文件里闭门造车。

如果某个提示词或工作流被反复使用——比如日志排查、生成 Release Notes——应该把它固化为 SKILL.md。这相当于为 AI 编写了一套标准操作流程(SOP),调用即用,无需每次重新描述。

当一个技能或工作流已经足够稳定且可预测,就可以更进一步:转化为定时自动化任务。让 AI 在后台默默完成代码扫描、总结报告等日常维护工作。不过这一步容易踩坑——工作流还不够稳定时就盲目开启自动化,结果往往是制造更多问题。

会话管理与避坑指南

把每个会话视为一个独立的工作线程。利用分支(/fork)、压缩(/compact)和多智能体协同来保持上下文的纯净和聚焦,避免单个会话变得臃肿不堪。

几条核心避坑原则值得记住:

  • 不要把长期规则塞进单次提示词——应该写入 AGENTS.md
  • 不要向 AI 隐藏构建和测试命令——它需要知道如何验证自己的工作
  • 不要在复杂任务中跳过计划阶段
  • 不要在工作流稳定前就盲目开启自动化

整条路径的逻辑其实很清晰:先把单次交互做扎实,再把经验沉淀成配置,然后扩展能力边界,最后才是自动化。对于独立开发者来说,这套渐进式的方法比一上来就追求全自动要靠谱得多——先跑通手动流程,再考虑让机器接管。