基础交互:别急着让它写代码
AI 的基础能力再强,模糊的指令依然会产出模糊的结果。一个好的提示词应该包含四个要素:
- 目标:你需要构建或修改什么
- 上下文:相关的代码文件、文档或错误信息
- 约束:架构要求、代码规范、安全限制
- 完成标准:任务完成的客观条件,比如测试通过、Bug 修复
面对复杂或模糊的任务,切忌直接让 AI 生成代码。应该先进入「计划模式」,或者让 AI 反向提问,把思路理清、假设排除之后再动手。这一步很多人会跳过,但恰恰是复杂项目成败的分水岭。
代码生成之后也不能就此收工。要求 AI 编写测试、运行代码检查、进行自我审查——建立一个完整的验证闭环,才能保证交付质量。
知识沉淀:把经验写进配置文件
每次对话都重复交代项目背景,是巨大的效率浪费。解决方案是 AGENTS.md。
把它理解为「写给 AI 的 README」:在里面定义项目结构、构建和测试命令、代码约定、禁忌事项。一旦写好,AI 每次启动时自动加载这些规范,省去大量重复输入。这个设计很实用,尤其是多人协作或项目周期较长时,效果立竿见影。
在工作流配置层面,通过 config.toml 文件固化个人或项目的偏好设置,比如模型选择和推理深度。权限管理上建议遵循最小权限原则——初始阶段保持严格的沙盒和审批模式,随着信任建立再逐步放宽。
能力跃迁:让 AI 连接外部世界
当 AI 需要获取代码库之外的动态信息或操作外部工具时,MCP(Model Context Protocol)是打破信息孤岛的关键。通过 MCP 接入,AI 可以直接与你现有的工具链实时交互,而不是局限在本地文件里闭门造车。
如果某个提示词或工作流被反复使用——比如日志排查、生成 Release Notes——应该把它固化为 SKILL.md。这相当于为 AI 编写了一套标准操作流程(SOP),调用即用,无需每次重新描述。
当一个技能或工作流已经足够稳定且可预测,就可以更进一步:转化为定时自动化任务。让 AI 在后台默默完成代码扫描、总结报告等日常维护工作。不过这一步容易踩坑——工作流还不够稳定时就盲目开启自动化,结果往往是制造更多问题。
会话管理与避坑指南
把每个会话视为一个独立的工作线程。利用分支(/fork)、压缩(/compact)和多智能体协同来保持上下文的纯净和聚焦,避免单个会话变得臃肿不堪。
几条核心避坑原则值得记住:
- 不要把长期规则塞进单次提示词——应该写入 AGENTS.md
- 不要向 AI 隐藏构建和测试命令——它需要知道如何验证自己的工作
- 不要在复杂任务中跳过计划阶段
- 不要在工作流稳定前就盲目开启自动化
整条路径的逻辑其实很清晰:先把单次交互做扎实,再把经验沉淀成配置,然后扩展能力边界,最后才是自动化。对于独立开发者来说,这套渐进式的方法比一上来就追求全自动要靠谱得多——先跑通手动流程,再考虑让机器接管。