文档里藏着的信息量
翻了一遍这份开发者文档的结构,发现 OpenAI 现在对"AI 写代码"这件事的理解已经相当体系化了。不只是简单的 code generation,而是围绕整个开发流程搭了一套完整框架:
- Prompt 工程:专门有 prompt engineering 和 prompt guidance 两个章节,说明光会写需求描述还不够,怎么组织 prompt 的结构、怎么给模型足够的上下文,这些都有讲究
- 代码生成:独立的 code generation 指南,估计会涉及语言指定、逻辑拆解、输出格式控制这些实操层面的东西
- 结构化输出:structured output 这个能力对开发者太重要了,意味着你可以让 AI 直接输出 JSON、特定格式的数据结构,而不是一堆需要自己解析的自然语言
- Function calling:函数调用能力,这是搭 Agent 的核心积木之一
值得关注的几个模块
让我比较意外的是文档里关于 Agent 搭建的部分已经相当完善了。Agent Builder、Agents SDK、还有安全指南(Safety in building agents),甚至连 Agent 的评估(agent evals)和 trace grading 都有了。这说明 OpenAI 已经把 Agent 当作一个正式的产品形态在推了,不是实验性质的玩具。
另外几个对一人公司开发者特别实用的点:
- Background mode:后台模式,可以让耗时任务异步执行,不用干等着
- Prompt caching:提示缓存,重复调用相同前缀的 prompt 可以省 token,直接省钱
- Compaction:上下文压缩,长对话不会因为超出 token 限制就崩掉
- Shell 工具和 Computer use:这两个能力组合起来,基本就是让 AI 直接操作你的电脑干活
推理模型那块也别忽略
文档里单独列了 reasoning models 和 reasoning best practices。现在最新的模型已经到了 GPT-5.4,推理能力比之前强了不少。对于写复杂业务逻辑、做代码重构这类需要"想清楚再动手"的场景,用推理模型配合好的 prompt 策略,效果会好很多。
还有 fine-tuning 那部分——supervised fine-tuning、reinforcement fine-tuning 都有,虽然对大多数独立开发者来说暂时用不上,但如果你在做垂直领域的 AI 产品,这就是你的护城河所在。
我觉得对于正在用 AI 辅助开发的人来说,与其到处找野路子的 prompt 技巧,不如把官方这套文档系统过一遍。毕竟做工具的人最清楚工具该怎么用,这份指南值得收藏慢慢消化。