研究概述
这篇博文基于Dwarkesh与Richard Sutton的播客节目,探讨了人工智能领域"动物(Animals)"与"幽灵(Ghosts)"两种学习路径的本质区别。
Karpathy通过解读Sutton的观点,梳理了大模型研究者们对于"苦涩教训"的误用,以及LLM本身与动物智能的分歧。他从工程和心智模型的角度,提出了"幽灵不是动物"的核心观点,认为当今主流AI研究更像是在"召唤人类幽灵",而非复制真正的动物式智能。
这篇博文基于Dwarkesh与Richard Sutton的播客节目,探讨了人工智能领域"动物(Animals)"与"幽灵(Ghosts)"两种学习路径的本质区别。
Karpathy通过解读Sutton的观点,梳理了大模型研究者们对于"苦涩教训"的误用,以及LLM本身与动物智能的分歧。他从工程和心智模型的角度,提出了"幽灵不是动物"的核心观点,认为当今主流AI研究更像是在"召唤人类幽灵",而非复制真正的动物式智能。
Sutton提出的"苦涩教训"强调AI研究应最大化利用可扩展算力,而非依赖手工特征。这一理念在LLM研究圈如同"圣经"般被引用,评判方法是否"bitter lesson pilled"。
然而Sutton本人并不确信LLM真正遵循了苦涩教训。LLM的数据源全部是人类文本,且数据总量有限,其扩展性和解耦人类偏见的能力存疑。一旦"用完"数据,AI如何进步?
Sutton与LLM研究者在理念上存在根本分歧:Sutton强调类动物的不断自我学习,而LLM离不开大规模人类监督数据和工程干预。
Sutton追溯到图灵对"child machine"的设想:没有大规模模仿学习,没有人为监督微调。现实动物界也没有直接的"远程操控"示范,只有观察与自发模仿。
动物学习完全依赖自身与环境交互,奖励信号来自外部环境和内在好奇心、乐趣等动机
动物不是离线训练后部署,而是在整个生命周期都动态适应环境变化
"如果我们真正理解了一只松鼠,基本就能破解智能的奥秘。"
— Richard Sutton
LLM训练流程每一步都充满人类工程师的参与和设计:
这与苦涩教训的"自动、自洽、大规模可扩展"本质不同。业界并未找到能完全自动进化的"turn the crank"算法。唯一能部分佐证自主学习可能性的是AlphaZero,但围棋环境远非现实世界的杂乱无章可比。
动物大脑不是"白纸起步",而是进化逻辑编码的复杂初始化结果。初生斑马几分钟可行走,这是大脑DNA中亿万年"外部监督"的结果。AI无法回放进化路径,只好依赖互联网文本进行海量软监督,成为一种特殊的"预热"。
ANIMALS
GHOSTS
尽管LLM当前路径与动物智能不同,但生物智能中仍有很多值得借鉴的范式。
好奇心、兴趣驱动的探索机制
对抗与合作的演化环境
群体智能的涌现性特征
两种智能未来可能逐渐收敛,也可能分道扬镳,各自形成独立分支。就像"飞机vs鸟类":飞机不能像鸟一样扇动翅膀,但两者都能飞行,且各有优势和独特性。
核心观点:只要技术路径能利用算力扩展,最终将超越手工规则与先验知识。
现实困境:LLM以人类数据为主导,数据量扩展受物理约束,人类工程师深度"插手"各环节。
Sutton立场:AI应视作"类动物体",强调自驱、长期与环境独立交互,大脑参数由进化机制(基因、DNA)确定初始化。
思维模型总结:LLM与动物类智能未来可能收敛(convergent),也可能分化(divergent)。科学与工程不应预设单一路径,应该多元探索。