2025 AI年度复盘:通向AGI的技术拼图
摘要
文章基于200篇AI论文的梳理,指出2025年标志着暴力美学时代的终结。技术进步集中在流体推理、长期记忆、空间智能和元学习四个领域,核心从把模型做大转向把模型变聪明。通过CHC认知框架分析,AI在即时推理、长期记忆和视觉处理上存在严重短板。2025年通过Test-Time Compute实现推理能力质变,通过Titans架构和Nested Learning解决记忆问题,通过视频生成迈向真正的世界模型。
内容框架与概述
文章开篇明确2025年是暴力美学时代的终结,技术进化回归基础研究。作者通过梳理200篇论文,提出三大核心结论:技术进步集中在四大关键领域、现有AI存在能力偏科问题、这些瓶颈在2025年找到解决方案。CHC认知理论框架揭示了AI在知识储备与推理记忆能力之间的严重失衡。
第二部分深入分析流体推理的进化。Test-Time Compute通过延长推理时间换取智能,以OpenAI o1和DeepSeek R1为代表,AI学会了慢思考。强化学习在评分系统和参数更新算法上取得突破,RLVR和ORM崛起,GPRO算法替代PPO成为主流。Meta的ScaleRL研究发现RL性能遵循Sigmoid曲线而非幂律,揭示了RL的天花板效应。
第三部分探讨记忆与学习的突破。长期记忆是AGI得分中唯一的零分项,也是最大短板。Google的Titans架构引入神经记忆模块,通过惊奇度决定记忆内容,实现了推理过程中的实时参数更新。Nested Learning采用分层更新频率,让模型具备持续学习能力。RAG从简单的检索系统进化为具备反思与进化能力的智能系统,ReMem引入内省机制,将记忆压缩为可复用的策略。
核心概念及解读
Test-Time Compute:通过延长推理时间投入更多计算资源,让AI在输出前进行自我辩论和推演,实现从直觉到慢思考的质变。
CHC认知理论:Yoshua Bengio提出的AGI评估框架,将AI能力分为知识、推理、记忆和视觉等维度,揭示了AI严重的能力偏科问题。
Titans架构:Google提出的神经长期记忆模块,打破Transformer无状态假设,通过惊奇度机制在推理过程中实时更新参数。
Nested Learning:分层更新频率的神经网络架构,低频层保证知识延续性,高频层处理短期记忆,实现模型的持续学习。
可验证奖励RL:基于数学、代码等客观真理领域的结果对错作为奖励信号,让模型自发探索推理过程,大幅提升代码和数学能力。
原文信息
| 字段 | 内容 |
|---|---|
| 原文 | 读完200篇论文,看DeepMind、Meta、DeepSeek ,中美巨头都在描述哪种AGI叙事|2025 AI 年度复盘 |
| 作者 | 博阳 |
| 发表日期 | 2026-01-12 |
此摘要卡片由 AI 自动生成