Naveen 的背景很特别。神经科学 PhD 出身,做过最早一批 AI 芯片公司,带过 Mosaic ML、Databricks AI,现在自己创业搞 Unconventional AI。他这次直接抛出来一句:现在用的计算范式,是 80 年前为「数字计算」设计的,根本不是为「智能」设计的。硬拿来跑 AI,效率低得离谱。

先看几个让人心凉的数字

全球 80 亿人,每个人脑只用 20 瓦,加起来才 160 吉瓦。

而今天的 AI 训练加推理已经在烧几个吉瓦,未来两三年就会把全球电力逼到极限。

大脑和现有芯片的能效差距,不是「差一点」,是好几个数量级:

  • 人脑:20 瓦,搞定极其复杂的智能
  • 猴脑:不到 1 瓦
  • 松鼠跳树时的算力消耗:不到 10 毫瓦
  • 现在的芯片:1 瓦干不了大脑百分之一的活

他在台上画了条曲线,结论很简单:我们离物理极限还差几个数量级,现在跑得越快,撞墙越快。

大脑凭什么这么省

传统芯片本质上就一件事:把数据搬来搬去,做矩阵乘法。每一步都要从内存读、算完写回去,能耗爆炸就在搬运上。

大脑不这样玩。

大脑是一个非线性动态系统。神经元之间一直在互动、同步、变化,计算就藏在这些动态交互里,而不是单独的 0 和 1。状态和计算是融合的,物理本身就在算。

Naveen 的芯片做的就是这件事:把「振荡器 + 可训练的耦合」做成硬件,让物理直接跑动态计算,省掉绝大部分内存搬运。

现场 demo:用动力学直接生成图像

他放了个挺直观的 demo:

随机噪声丢进去,让系统按时间自然演化,最后直接收敛成猫、马这种图像。

没有一步步的矩阵运算,就是「踢一脚」让系统自己跑,状态自然落到有意义的图案上。

听起来玄,但本质就是把「时间维度」交给物理,不再用一堆 tick-tock 的离散步骤去模拟连续过程。这里有个关键洞察:当你强行用离散数字电路去模拟连续动力学,能耗就是被注定要爆的。

为什么这事值得创业者关注

Naveen 自己说得很直白:「我们不是在做又一个 AI 芯片,我们是在重新定义计算的底层基石。」

而且他强调,这种事必须创业公司来干。没有历史包袱,几个月就能出原型;大厂的架构、工艺、客户全都绑死,几年都转不过弯。

对独立开发者和小团队,我觉得有几条更具体的启发:

  • 别只盯着模型参数和 benchmark,先想想这玩意儿要烧多少电、谁付得起
  • 真正的护城河不是谁的模型更大,而是谁先把智能做到「瓦级」——能塞进端侧、能塞进可穿戴
  • 神经科学 + 硬件的交叉点,是下一波大机会的可能源头之一。Naveen 从神经科学转芯片再创业,本身就是活样本

一句话核心

AI 不缺算力,缺的是能效

人脑 20 瓦能干的事,现在要烧几个吉瓦。要真正做出 ASI,必须回到物理层面,造出像大脑那样「动态、高效、带随机性」的计算系统。

Naveen 原话:我们现在走的路其实是错的,只是大家还没意识到。

听完这期最大的感受是,过去几年我们默认 AI 进步等于「越算越强」,但物理天花板已经在眼前了。谁能先把「大脑级能效」做出来,谁就可能把整个行业重新洗一遍。

未来 AI 最大的瓶颈,到底是算力、数据,还是真的会卡在电上?我自己越来越倾向第三个。