AGI的未来是系统工程而非模型训练
摘要
本文核心观点是通往人工通用智能的道路不在于继续扩大语言模型的规模,而在于构建由模型、记忆、上下文和确定性工作流组成的工程化系统。当前主流大模型已接近能力极限,单纯依靠堆算力和扩参数已无法带来质的突破。AGI的本质是一个系统工程问题,需要分布式系统、上下文管理、记忆服务、确定性与概率性结合的工作流,以及多模型协作的架构创新。
内容框架与概述
文章首先指出了现有大语言模型已达到能力平台期。日常使用者能明显感受到其局限性:虽然能生成高质量文本,但在跨会话保持上下文、持久记忆、复杂多步推理等方面表现不佳。这种技术发展轨迹与半导体行业类似,当主频提升遇到物理极限后,行业转向多核架构带来新一轮创新。AI领域也正处于类似拐点,继续做大模型的边际收益正在递减。
未来的关键问题不再是如何让模型更大,而是如何让系统更智能。这意味着需要从模型训练转向系统工程,关注模型之间的协作、信息流动和可靠性。AGI的突破不在于更大的Transformer,而在于能编排数百专用模型、跨会话保持上下文、围绕概率性组件执行确定性工作流,并在生产级规模下实现容错操作的分布式系统。
核心概念及解读
上下文管理基础设施:现有模型的注意力跨度仅为数千token,而人类的上下文跨度可以覆盖数年甚至一生。这种差距不仅是数量级的,更是质量上的。理想的上下文管理系统需要具备按需检索和过滤相关信息、构建并维护可持续演化的世界模型、跨领域桥接上下文、处理冲突信息等能力。这需要从简单的向量检索升级到可操作知识图谱,实现实时更新、查询和推理。
记忆服务:现有LLM没有真正的记忆,只能通过提示工程和上下文填充模拟记忆。AGI需要具备真正的记忆系统,能够在新证据出现时更新信念、跨多次体验整合信息形成一般性原则、忘记无关细节但避免灾难性遗忘、生成关于信息可靠性和来源的元知识。这不仅是数据库持久化,更是类人记忆系统,使用越多越牢固,久未使用则逐渐遗忘,遇新理解时能重组记忆结构。
确定性工作流与概率性组件结合:AGI的突破点在于用确定性框架包裹概率性组件。类似编译器的设计理念,整体流程可预测,但某些步骤可用启发式或概率优化。理想系统应根据问题特征将任务路由到合适的专用求解器、执行多步工作流并具备回滚与恢复能力、在接受概率性结果前进行确定性校验、以可预测方式组合各能力同时保留生成式模型的灵活性。不确定性应成为系统设计的一级公民。
专用模型的模块化协作:未来不是单一模型包打天下,而是数百数千个专用模型协同工作。语言模型在语言任务上表现优异,但在符号运算、视觉空间推理、时间规划、持续目标行为等方面表现不佳。应构建能够将问题路由到最适合的专用模型的系统、整合不同模型输出为统一解决方案、保持各组件兼容性允许独立进化、在个别模型失效时优雅处理不影响整体系统。
三阶段架构路线图:第一阶段为基础层,包含上下文管理服务、记忆服务、工作流引擎和Agent协调层;第二阶段为能力层,包含专用模型控制、符号推理引擎、规划与目标管理、跨模态整合;第三阶段为涌现层,真正的AGI将从上述各组件的协同作用中涌现,而非单一模型突破。系统能力将超越各部分总和,依赖于精心设计的架构。
原文信息
| 字段 | 内容 |
|---|---|
| 原文 | AGI is an Engineering Problem |
| 作者 | Vinci Rufus |
| 发表日期 | 未注明 |
此文档由 AI 自动整理