因为大多数时候,问题根本不在模型,而在人。

更准确地说,问题通常出在第一句。

很多人一上来就对 AI 说:

“帮我写一篇关于 xxx 的文章。”

然后就等结果。

最后得到一篇看起来语法没问题、结构也勉强完整、但完全没有可发布价值的东西——所谓“正确的废话”。

这篇文章最有价值的地方,不是它发明了什么神奇 prompt,而是它把这个问题说透了:

多数人用 AI 创作失败,不是不会写提示词,而是从任务一开始就把 AI 放在了一个错误的位置上。

他们把 AI 当成了自动出稿机,而不是一个需要明确角色、步骤、格式和边界的执行者。

这两种用法,差别非常大。

这也是为什么文章里那 4 个核心要素值得被重新理解。

第一,身份设定。

这不是让你去玩角色扮演,而是告诉模型“它现在该站在哪个专业位置上看问题”。

当你只说“帮我写”,模型会调用的是最泛化的平均输出;当你告诉它“你现在是一个有 8 年经验的新媒体运营”“你是一个懂增长的写作顾问”“你是一个能把复杂内容讲清楚的行业分析师”,你其实是在缩小它的解空间,让它从更接近目标的视角出发。

第二,任务拆解。

这是我觉得这篇文章最重要的一点。因为很多人不是 prompt 不够长,而是任务颗粒度太粗。你让 AI 一口气把整篇内容生成出来,本质上是在要求它同时完成:

选题判断、结构设计、节奏控制、内容展开、风格匹配、平台适配、风险规避。

任务过大时,模型最自然的选择就是退回安全模式——输出一篇平均正确但没有灵魂的稿子。

而一旦你把任务拆开:

先出大纲,
再逐段写,
再逐段改,
再统一风格,
输出质量会立刻上一个台阶。

这里不是 AI 更聪明了,而是工作流终于变合理了。

第三,格式范式。

这个点经常被低估。很多人脑中其实有结果感,但没有把它表达出来。你想要分点式、连贯叙述、适合小红书、适合微博、控制字数、保留 emoji、加强 punchline、还是压成框架文?如果这些都不说,AI 就只能“猜”。

而一旦让模型猜,它通常会猜向最保守、最通用、最像模板的方向。

所以所谓格式范式,真正的意义不是给 AI 加要求,而是帮它减少误差。

第四,边界限制。

这一步非常像工作里的岗位说明书。你不只是告诉 AI 做什么,也要明确什么不能做:

不要太空;
不要太学术;
不要出现某些敏感词;
不要超过字数;
不要自作主张发散;
不要用一眼看上去就是 AI 味的句式。

边界一旦没有写清楚,模型就很容易用它认为“合理”的方式越界,而这些越界通常正好是人最不想看到的地方。

如果把这四点放在一起,你会发现它们真正构成的不是一个提示词模板,而是一套 AI 写作管理方法:

先定角色,
再拆任务,
再定输出范式,
最后给边界。

这其实已经不只是 prompt engineering,而是在做最小可用的内容工作流设计。

文章后面提到的几个新手大坑,我也觉得说得很实在。

比如指令太短。

很多人误以为 prompt 越短越高级,像高手一样一句话就能搞定。但短 prompt 只有在你已经把背景和规则放进长期上下文里时才成立;否则它往往只会生成一篇泛而空的应付稿。

再比如不给示例。

如果你想要某种风格,最有效的方法通常不是描述,而是投喂参考样本。风格本来就很难通过抽象语言完全说明,但样本能直接把节奏、密度、语气和结构感交给模型。

还有“一次生成就盲发”。

这是很多人低估的风险。AI 第一版输出更像 draft,不是成品。真正稳妥的流程,永远应该包含:

生成 → 检查 → 调整 → 再发。

尤其是在内容平台环境里,AI 输出除了质量问题,还会有同质化、标题风险、平台适配、冷启动表现这些额外维度。也就是说,AI 不是省掉审稿,而是让你把更多精力放到更有价值的审稿上。

文章里还有一个很值得保留的反常识:

提示词不是越长越好,关键是越准确越好。

这句话特别适合现在这个阶段。因为很多人一意识到需要写 prompt,就开始疯狂堆词、堆形容词、堆目标、堆情绪,结果把需求写得越来越花,但并没有更清楚。

AI 真正需要的不是文学化描述,而是清晰约束下的明确任务。

如果把这篇文章的核心压缩一下,我觉得它真正讲的其实不是“4 个公式”,而是一个更基础但更重要的认知:

AI 写作不是按一下按钮就出稿,
而是把一个人类编辑原本会做的工作流,重新压缩、拆解、结构化,然后交给模型逐步执行。

这对 Kenny 也很有现实意义。

因为你现在做的网站文章、任务提炼、跨平台内容分发,本质上都不是“写一篇文”这么简单,而是连续的内容工程。与其追求一句万能 prompt,不如把这条链路设计清楚:

谁负责提选题;
谁负责出大纲;
谁负责压缩要点;
谁负责改成平台风格;
谁负责审稿;
谁负责发布。

一旦这样看,AI 最强的地方就不再是“写得快”,而是它可以成为一条被你结构化之后的内容流水线执行者。

如果一定要用一句话总结这篇文章,我会这样说:

80% 的 AI 写作之所以产出“正确的废话”,不是因为模型不够好,
而是因为大多数人在第一句指令里,就已经把 AI 放到了一个错误的位置上。