COGNITIVE ARCHITECTURE REVIEW

动物与幽灵

人工智能的两种心智路径

Andrej Karpathy 2025 karpathy.bearblog.dev
OVERVIEW

研究概述

这篇博文基于Dwarkesh与Richard Sutton的播客节目,探讨了人工智能领域"动物(Animals)"与"幽灵(Ghosts)"两种学习路径的本质区别。

Karpathy通过解读Sutton的观点,梳理了大模型研究者们对于"苦涩教训"的误用,以及LLM本身与动物智能的分歧。他从工程和心智模型的角度,提出了"幽灵不是动物"的核心观点,认为当今主流AI研究更像是在"召唤人类幽灵",而非复制真正的动物式智能。

PRINCIPLE

苦涩教训与LLM的偏差

教训的本质

Sutton提出的"苦涩教训"强调AI研究应最大化利用可扩展算力,而非依赖手工特征。这一理念在LLM研究圈如同"圣经"般被引用,评判方法是否"bitter lesson pilled"。

根本质疑

然而Sutton本人并不确信LLM真正遵循了苦涩教训。LLM的数据源全部是人类文本,且数据总量有限,其扩展性和解耦人类偏见的能力存疑。一旦"用完"数据,AI如何进步?

鸡同鸭讲

Sutton与LLM研究者在理念上存在根本分歧:Sutton强调类动物的不断自我学习,而LLM离不开大规模人类监督数据和工程干预。

BIOLOGICAL MODEL

"动物"智能的学习方式

图灵的幼年机器

Sutton追溯到图灵对"child machine"的设想:没有大规模模仿学习,没有人为监督微调。现实动物界也没有直接的"远程操控"示范,只有观察与自发模仿。

环境交互

动物学习完全依赖自身与环境交互,奖励信号来自外部环境和内在好奇心、乐趣等动机

动态适应

动物不是离线训练后部署,而是在整个生命周期都动态适应环境变化

"如果我们真正理解了一只松鼠,基本就能破解智能的奥秘。"

— Richard Sutton

FUNDAMENTAL DIFFERENCE

LLM训练的根本分别

极度复杂的工程

LLM训练流程每一步都充满人类工程师的参与和设计:

  • 基础数据采集几乎全部依赖人类文本
  • 微调数据是人类精心挑选
  • RL阶段的奖励环境也是人为设置

缺失的自动推进

这与苦涩教训的"自动、自洽、大规模可扩展"本质不同。业界并未找到能完全自动进化的"turn the crank"算法。唯一能部分佐证自主学习可能性的是AlphaZero,但围棋环境远非现实世界的杂乱无章可比。

进化的初始化

动物大脑不是"白纸起步",而是进化逻辑编码的复杂初始化结果。初生斑马几分钟可行走,这是大脑DNA中亿万年"外部监督"的结果。AI无法回放进化路径,只好依赖互联网文本进行海量软监督,成为一种特殊的"预热"。

动物智能

ANIMALS

  • 自主学习,基因编码初始条件
  • 与环境长期动态交互
  • 凭借奖励信号自我修正
  • 持续适应环境变化
  • 具备创造性和自生成能力

幽灵智能

GHOSTS

  • 人类知识的大规模统计建模
  • 数据来源高度人类中心化
  • 工程师精细控制训练微调
  • 快速迁移人类社会知识
  • 善于模拟但缺乏自驱创新
FUTURE DIRECTION

动物能否启发后续AI发展

尽管LLM当前路径与动物智能不同,但生物智能中仍有很多值得借鉴的范式。

内在动机

好奇心、兴趣驱动的探索机制

多智能体

对抗与合作的演化环境

自生文化

群体智能的涌现性特征

收敛或分化

两种智能未来可能逐渐收敛,也可能分道扬镳,各自形成独立分支。就像"飞机vs鸟类":飞机不能像鸟一样扇动翅膀,但两者都能飞行,且各有优势和独特性。

FRAMEWORK & MINDSET

框架与心智模型

苦涩教训原则反思框架

核心观点:只要技术路径能利用算力扩展,最终将超越手工规则与先验知识。

现实困境:LLM以人类数据为主导,数据量扩展受物理约束,人类工程师深度"插手"各环节。

Sutton立场:AI应视作"类动物体",强调自驱、长期与环境独立交互,大脑参数由进化机制(基因、DNA)确定初始化。

反思核心三要点

  • 不要高估单纯依赖大数据与计算资源的上限
  • 不能忽视动物智能形成中进化与自驱因素的基础性作用
  • 勿陷入"算法万金油"思维,警惕对人工工程与人类数据的过度依赖

Ghosts vs Animals 智能模型对照

思维模型总结:LLM与动物类智能未来可能收敛(convergent),也可能分化(divergent)。科学与工程不应预设单一路径,应该多元探索。