u8,u8国际,u8国际官方网站,u8国际网站,u8国际网址,u8国际链接,u8体育,u8体育官网,u8体育网址,u8注册,u8体育网址,u8官方网站,u8体育APP,u8体育登录,u8体育入口【新智元导读】2025年就要结束,DeepMind华人研究员万字长文为我们揭秘了谷歌内部对于AI的预言:除了算力,其他一切都是杂音。
在经历一年的模型、算力、资本的新闻轰炸后,AI距离通用人工智能还有多远?
如果说2024年是人们对于AI的好奇之年,那么2025年就是AI深刻影响人类社会之年。
「我们已经知道如何构建AGI,2026年我们将看到能够产生原创见解的系统。」他坚持认为,Scaling Law远未触及天花板,智能的成本将随着电力的自动化生产而趋近于零。
拓展阅读:奥特曼:温和奇点已降临!AI最终掌控物理世界,2030年人类命运大转折
「AI的瓶颈不再是想象力,而是电力。未来的Scaling Law不仅是模型的堆叠,更是推理效率10万倍的飞跃。」
相比之下,Meta的前首席科学家Yann LeCun依然嘴炮,他甚至在离职创办新公司前公开表示:
「LLM是通往 AGI 的死胡同,它没有世界模型,就像一个没有躯体的空中楼阁。」
拓展阅读:LeCun赌上后半生,押注大模型必死!Hassabis誓将Scaling进行到底
对于这个问题,一篇来自DeepMind华人研究员的万字长文在社交网络火了:
作者以独特的个人视角,回顾了从2015年至今AI领域的剧变,并深刻剖析了驱动这一切的核心动力——算力。
尽管外界对Scaling Laws存疑,但历史反复证明,随着算力的指数级增长,AI模型不断涌现出超越人类预期的能力。
作者结合自己在DeepMind的工作经历,验证了强化学习教父Richard S. Sutton「苦涩的教训」:
2025年12月30日,当回望这波澜壮阔的一年时,脑海中浮现的是十五年前那场由AlexNet开启的视觉革命。
那场辛顿、李飞飞、Ilya都参与的大会,或许就是如今AI时代的真正萌芽。
那时,大多数人认为人工智能仅仅是关于「特征工程」和「人类聪明才智」的博弈,而今天,我们已经进入了一个完全不同的维度:
一个由算力主导、由Scaling Law驱动、且AGI(通用人工智能)才刚刚踏上征途的纪元。
在2024年底,业内曾出现过一阵强烈的悲鸣,认为预训练数据的枯竭和边际收益的递减标志着Scaling Law的终结。
Scaling Law不仅没死,它正在经历一场从「暴力堆参数」到「智能密度」的深刻演化。
研究显示,过去十五年里,用于训练AI模型的算力每年以四到五倍的速度增长。
在DeepMind内部观察到,模型在训练过程中所消耗的数学运算量,已经超过了可观测宇宙中的恒星数量。
根据Kaplan和Hoffmann等人的实证研究,性能与算力之间存在着明确的幂律关系:性能提升与算力的0.35次方成正比。
这意味着,每投入10倍的算力,大约能带来3倍的性能增益;而当我们跨越1000倍的算力鸿沟时,性能的提升将达到惊人的10倍量级。
Scaling Law最迷人的一点在于,它不仅带来了定量的误差减少,更诱发了不可预测的定性跃迁。
在DeepMind的实验中,随着算力的增加,模型会突然展现出逻辑推理、复杂指令遵循以及事实性修正等「涌现能力」。
2025年的真相是:我们已经从单纯的「预训练Scaling」转向了「全四个维度Scaling」:
那次经历彻底重塑了Zhengdong Wang的「智能观」,也让Zhengdong Wang理解了为什么说「算力即正义」。
当时,DeepMind团队正在尝试解决具身智能(Embodied AI)在3D虚拟环境中的导航与交互问题。
当时的共识是:这个问题的瓶颈在于算法的精妙程度,在于我们如何设计更优的采样策略和奖励函数。
然而,一位同事提出了一个近乎「鲁莽」的方案:不要改算法,直接把算力投入增加一千倍。
那些原本被认为需要突破性人类巧思才能解决的逻辑死角,在海量的矩阵乘法面前直接「融化」了。
那一刻,Zhengdong Wang深刻体会到了理查德·萨顿(Richard Sutton)在《苦涩的教训》中所表达的真理:
这种realization就像是一股巨大的「算力之波」从你身上碾过,让你意识到,与其苦思冥想如何优化那1%的算法效率,不如直接去拥抱那1000倍的算力扩张。
当DeepMind在内部讨论算力时,话题已经从「PFLOPS」转向了「GW」。
2025年,AI不再仅仅是代码,它是重工业,是土地、能源和定制硅基芯片的终极整合。
这种终极整合,用一个词概括就是「AI工厂」,正是黄仁勋在GTC大会所提出的概念。
GB200 NVL72系统将72颗GPU互联为一个单一的超级计算引擎,其万亿参数模型的推理速度比H100提升了30倍。
BlackwellUltra的推出更是将单芯片显存推向了288GB的极限,这意味着即使是300B以上的模型,也可以在不需要显存卸载的情况下完整驻留,这对于长上下文和高并发推理至关重要。
谷歌的基础设施首席执行官Amin Vahdat在内部会议中明确指出,为了满足爆发式的算力需求,我们必须每六个月将算力能力翻倍,并在未来4-5年内实现1000倍的增长。
如果你能看到1000倍算力带来的智能红利,那么任何低于这个数字的投入都是一种风险。
在DeepMind,始终认为AGI的终极形态不在对话框里,而在物理世界中。
SIMA 2是一个通用的具身智能体,它不依赖于游戏内部的数据接口,而是像人类一样,通过观察像素和操作键盘鼠标在复杂的3D虚拟世界中行动。
这种设计确保了它所习得的技能——从基础的导航到复杂的工具使用——具有极强的泛化性,可以无缝迁移到完全不同的数字环境,甚至为未来的物理机器人提供大脑。
通过与Gemini基础模型的结合,它可以自主生成任务、自我设定奖励,并在没有任何人类标注的情况下,通过不断的尝试和错误习得新技能。
扩展阅读:我的王者荣耀有救了!谷歌发布游戏SIMA 2,不开外挂「像人一样」练级
两年前,AI只能稳定完成人类耗时9分钟的任务;而到了2025年底,这个数字已经跃升到了4小时以上。
按照目前的Scaling趋势,到2028年,AI有望独立完成人类专家需要数周才能完成的科研或工程任务。
在结尾,Zhengdong Wang写道:「这就是我上车的地方——我们现在还极其早。」。
尽管2025年我们已经看到了能过IMO的金牌模型,看到了能自主在3D世界中生存的Agent,但在DeepMind的「Post-AGI」团队看来,这仅仅是序幕。
我们依然受困于1GW的电力瓶颈,受困于数据采集的效率,受困于推理成本的最后几美分。
2025年的真相是,Scaling Law不仅是通往AGI的路径,它本身就是一种重塑物理世界的哲学。
那些还在争论泡沫的人,或许还没意识到,这股由1000倍算力卷起的风暴,已经将人类送往了一个再也回不去的纪元。
对于AI的拥趸,所有人正满怀敬畏地看着那列名为「智能」的火车加速驶向远方。