Claude Code 被黄仁勋称为"第三个拐点"

黄仁勋把过去两年 AI 计算需求暴涨归因于三件事,按时间顺序排列:

  1. ChatGPT:开启生成式 AI 时代,AI 从"能理解"变成"能生成"。
  2. o1/o3 推理模型:AI 学会了自我反思、拆解问题、基于事实推理,让生成式 AI 变得可信赖。
  3. Claude Code:第一个真正的智能体模型——它能读文件、写代码、编译、测试、评估,然后自己迭代改进。

黄仁勋原话:"Claude Code 引发了全新拐点的彻底革命。这是你第一次不用告诉 AI 什么时间、什么地点或怎么做。你只需要求它创建、执行、构建。"

他还透露了一个细节:英伟达 100% 的员工都在使用 AI 编程工具,大多数人同时用 Claude Code、Codex 和 Cursor 三个。换句话说,在一家市值数万亿美元的芯片公司里,没有一位工程师还在"裸写"代码。

这对独立开发者的启示很直接:如果英伟达的工程师都在用 AI 辅助编程,一人公司更没有理由不用。差距不在于你会不会写代码,而在于你能不能让 AI 帮你把产出放大十倍。

OpenClaw:AI 智能体时代的"操作系统"

整场演讲里信息密度最高的部分,是黄仁勋对 OpenClaw 的定位。他把它和 Linux、HTML、Kubernetes 相提并论——每一个都催生了一个计算时代。

OpenClaw 是一个开源的智能体框架,由 Peter Steinberger 开发。它在发布几周内就成为 GitHub 上最受欢迎的开源项目之一。黄仁勋说它"超越了 Linux 过去 30 年的成就"——这话有营销成分,但它确实反映了行业对统一智能体标准的饥渴程度。

OpenClaw 能做什么?用黄仁勋的描述来拆解:

  • 资源管理:访问工具、文件系统、大语言模型
  • 任务调度:执行定时任务、拆解复杂提示
  • 多智能体协作:派生并调用子智能体
  • 多模态交互:支持各种输入输出方式(文本、手势等)

只需在终端输入两行命令,它就会下载 OpenClaw、建立一个 AI 智能体,然后你可以让它执行任何任务。黄仁勋的原话是:"本质上 OpenClaw 开源了智能体计算机的操作系统。就像 Windows 使我们能够创造个人电脑一样,OpenClaw 让我们能够创造个人智能体。"

对于搭建自动化工作流的人来说,这意味着一个统一的框架可能正在形成。过去你可能用 n8n 做自动化、用 LangChain 做智能体编排、用各种胶水代码把它们粘在一起。如果 OpenClaw 真的成为行业标准,它可能会简化这个技术栈。

NemoClaw:让智能体安全地进入企业

OpenClaw 有一个显而易见的问题:智能体能访问敏感信息、能执行代码、能与外部通信。把这三件事放在一起,安全隐患巨大。

英伟达的应对方案是 NemoClaw——OpenClaw 的企业安全版本。它加入了:

  • 网络护栏:防止智能体越权操作
  • 隐私路由器:保护敏感数据不被泄露
  • 策略引擎接口:对接企业现有的安全策略系统

如果你正在为企业客户构建 AI 智能体产品,NemoClaw 提供了一个现成的参考架构,省去了从零搭建安全层的工作。

每家 SaaS 都将变成 AaaS

黄仁勋提出了一个对软件行业影响深远的判断:每一家 SaaS 公司都将转型为 AaaS(Agent as a Service)公司

逻辑链条是这样的:

  • 过去的企业 IT:数据中心存文件 → 软件提供工具 → 人类使用工具
  • 未来的企业 IT:AI 工厂生产 Token → 智能体使用工具 → 人类管理智能体

他甚至给出了一个具体场景:未来每位工程师除了底薪之外,还会有一笔"年度 Token 预算"。底薪可能几十万美元,Token 预算可能是底薪的一半,目的是让工程师的效率提升十倍。他说这已经成为硅谷的招聘筹码——"你的职位能配多少 Token?"

对一人公司来说,这个趋势意味着两件事:

  1. 你的产品形态可能需要重新思考。如果你在做工具类产品,考虑一下它能否被包装成智能体服务——不只是给人用的界面,而是给其他智能体调用的 API。
  2. Token 成本将成为核心经营指标。就像过去关注服务器成本一样,未来你需要精确管理每个业务环节的 Token 消耗。

推理拐点:为什么 Token 是新商品

黄仁勋用了大量篇幅解释"推理拐点"这个概念,核心观点是:AI 已经从训练阶段进入推理阶段。

过去两年,计算需求增长了大约 100 万倍。原因是:AI 每次思考、推理、执行、生成,都需要消耗 Token。推理模型(如 o1/o3)需要大量"思考 Token"来进行内部推理;智能体模型(如 Claude Code)需要 Token 来读文件、执行操作、迭代改进。

Token 正在像商品一样被分层定价:

  • 免费层:高吞吐量、低速度,适合轻量级任务
  • 中间层:每百万 Token 约 3-6 美元,平衡性能和成本
  • 高级层:每百万 Token 约 45 美元,更大模型、更长上下文
  • 顶级层:每百万 Token 可达 150 美元,极高速度、深度研究场景

黄仁勋算了一笔账:一个研究团队每天使用 5000 万个 Token,按每百万 Token 150 美元计算,日均成本 7500 美元——对研究团队来说"甚至不算什么"。但对一人公司来说,理解这个定价阶梯很重要:你需要根据任务的价值选择合适的 Token 层级,而不是一律用最贵的模型。

开放模型生态:Nemotron 和合作伙伴

英伟达同时在推进自己的开放模型体系,覆盖了多个领域:

  • Nemotron:大语言模型,据称在 OpenClaw 评测中位列全球前三
  • Cosmos:世界基础模型,用于物理 AI 的世界生成和理解
  • GROOT:通用人形机器人模型

英伟达还宣布成立 Nemotron 联盟,投资数十亿美元推进基础模型研发。联盟成员包括 BlackForest Labs、Cursor、LangChain、Mistral、Perplexity 以及 Mira Murati 的新实验室 Thinking Machines 等。

对开发者而言,值得关注的是这些开放模型与 OpenClaw 的结合——你可以在 OpenClaw 智能体中直接使用定制化的 Nemotron 模型,而不必依赖闭源 API。

一句话总结硬件趋势

虽然芯片细节不是一人公司的日常关切,但有一个数字值得记住:英伟达预计到 2027 年 AI 基础设施需求将突破 1 万亿美元。这意味着算力供给会持续扩大,Token 价格大概率会继续下降。对于依赖 AI API 的产品来说,这是一个长期利好。


如果你现在还没有开始用 AI 编程工具辅助开发,这场演讲传递的信号已经足够明确:不是"要不要用"的问题,而是"用多少"的问题。从 Claude Code 或 Cursor 开始,把省下来的时间投入到产品和客户身上。同时关注 OpenClaw 的发展——如果它真的成为智能体时代的 Linux,越早熟悉它的架构,未来的优势就越大。