清华四杰论剑AI:从Chat走向做事的技术进路
摘要
本文报道了清华大学基础模型北京市重点实验室举办的AGI-Next前沿峰会。智谱唐杰、Kimi杨植麟、阿里林俊旸与姚顺雨四位AI领域先锋齐聚,围绕大模型发展路径进行深度探讨。唐杰提出从Chat范式走向做事范式,强调Thinking能力与环境交互的重要性。杨植麟从Scaling Law第一性原理出发,解析Token Efficiency与Long Context是Agent时代的关键优化方向。林俊旸对中国AI发展持谨慎态度,认为反超难度极大。姚顺雨则从实用主义角度指出,ToC场景对超强智能的需求有限。会议讨论触及模型泛化、RLVR、多模态感统、记忆与持续学习等前沿议题,勾勒出2026年AI技术发展的重点方向。
内容框架与概述
本次峰会以大模型清华论剑为主题,四位嘉宾从不同维度分享了对AI发展的思考与判断。唐杰的演讲最为系统全面,他回顾了智谱从2019年成立至今的技术演进路径,提出大模型发展已从Chat阶段转向做事阶段的关键转折。他详细阐述了通过RLVR强化学习提升模型在真实编程环境中稳定性的实践,以及在Agent能力与通用能力之间的平衡挑战。唐杰还展望了多模态感统、记忆与持续学习、反思与自我认知等未来突破方向,并提出参考人类认知的双系统架构与自学习机制。
杨植麟的发言聚焦于Scaling Law这一第一性原理,从Token Efficiency和Long Context两个核心维度解析模型架构演进的本质。他指出Transformer之所以成为主流,关键在于在长序列任务中更优的位置损失表现。杨植麟团队通过MUON二阶优化器和Linear架构创新,实现了两倍Token效率提升和更优的长上下文处理能力,这些技术积累为复杂Agent任务奠定基础。
林俊旸与姚顺雨的观点相对简短但直指现实。林俊旸对中国在AI赛道反超美国的可能性持悲观态度,认为20%的乐观估计已经偏高。姚顺雨则从市场需求角度提出,大部分ToC用户实际上并不需要极强的智能能力,这一判断为技术发展路线提供了务实的校准视角。整场峰会呈现了技术理想主义与市场现实主义之间的张力。
核心概念及解读
Scaling Law:将能源转化为智能的第一性原理,通过扩大算力、数据和模型参数实现模型Loss的线性下降,是整个大模型技术发展的基础。
RLVR:可验证强化学习,通过数学、编程等可验证环境替代人类反馈,使模型能够自主探索并自动获得反馈,在闭环中持续提升能力。
Token Efficiency:衡量模型利用上下文Token能力的指标,指用尽可能少的Token达到相同效果,在数据有限时直接决定模型的智能上限。
多模态感统:类似人类通过视觉、听觉、触觉等多种输入形成整体认知的机制,是AI在真实物理世界执行长链路任务的关键能力。
双系统架构:参考人类认知的系统一(快速模式匹配)和系统二(复杂推理),结合自学习模块的AI系统结构,通过三个Scaling方向提升智能水平。
原文信息
| 字段 | 内容 |
|---|---|
| 原文 | 姚顺雨对着唐杰杨植麟林俊旸贴大脸开讲!基模四杰中关村论英雄 – 量子位 |
| 作者 | Jay |
| 发表日期 | 2026-01-11 |
此摘要卡片由 AI 自动生成