Naveen 的背景很特别。神经科学 PhD 出身,做过最早一批 AI 芯片公司,带过 Mosaic ML、Databricks AI,现在自己创业搞 Unconventional AI。他这次直接抛出来一句:现在用的计算范式,是 80 年前为「数字计算」设计的,根本不是为「智能」设计的。硬拿来跑 AI,效率低得离谱。
先看几个让人心凉的数字
全球 80 亿人,每个人脑只用 20 瓦,加起来才 160 吉瓦。
而今天的 AI 训练加推理已经在烧几个吉瓦,未来两三年就会把全球电力逼到极限。
大脑和现有芯片的能效差距,不是「差一点」,是好几个数量级:
- 人脑:20 瓦,搞定极其复杂的智能
- 猴脑:不到 1 瓦
- 松鼠跳树时的算力消耗:不到 10 毫瓦
- 现在的芯片:1 瓦干不了大脑百分之一的活
他在台上画了条曲线,结论很简单:我们离物理极限还差几个数量级,现在跑得越快,撞墙越快。
大脑凭什么这么省
传统芯片本质上就一件事:把数据搬来搬去,做矩阵乘法。每一步都要从内存读、算完写回去,能耗爆炸就在搬运上。
大脑不这样玩。
大脑是一个非线性动态系统。神经元之间一直在互动、同步、变化,计算就藏在这些动态交互里,而不是单独的 0 和 1。状态和计算是融合的,物理本身就在算。
Naveen 的芯片做的就是这件事:把「振荡器 + 可训练的耦合」做成硬件,让物理直接跑动态计算,省掉绝大部分内存搬运。
现场 demo:用动力学直接生成图像
他放了个挺直观的 demo:
随机噪声丢进去,让系统按时间自然演化,最后直接收敛成猫、马这种图像。
没有一步步的矩阵运算,就是「踢一脚」让系统自己跑,状态自然落到有意义的图案上。
听起来玄,但本质就是把「时间维度」交给物理,不再用一堆 tick-tock 的离散步骤去模拟连续过程。这里有个关键洞察:当你强行用离散数字电路去模拟连续动力学,能耗就是被注定要爆的。
为什么这事值得创业者关注
Naveen 自己说得很直白:「我们不是在做又一个 AI 芯片,我们是在重新定义计算的底层基石。」
而且他强调,这种事必须创业公司来干。没有历史包袱,几个月就能出原型;大厂的架构、工艺、客户全都绑死,几年都转不过弯。
对独立开发者和小团队,我觉得有几条更具体的启发:
- 别只盯着模型参数和 benchmark,先想想这玩意儿要烧多少电、谁付得起
- 真正的护城河不是谁的模型更大,而是谁先把智能做到「瓦级」——能塞进端侧、能塞进可穿戴
- 神经科学 + 硬件的交叉点,是下一波大机会的可能源头之一。Naveen 从神经科学转芯片再创业,本身就是活样本
一句话核心
AI 不缺算力,缺的是能效。
人脑 20 瓦能干的事,现在要烧几个吉瓦。要真正做出 ASI,必须回到物理层面,造出像大脑那样「动态、高效、带随机性」的计算系统。
Naveen 原话:我们现在走的路其实是错的,只是大家还没意识到。
听完这期最大的感受是,过去几年我们默认 AI 进步等于「越算越强」,但物理天花板已经在眼前了。谁能先把「大脑级能效」做出来,谁就可能把整个行业重新洗一遍。
未来 AI 最大的瓶颈,到底是算力、数据,还是真的会卡在电上?我自己越来越倾向第三个。