Gary Marcus · 2025-01-08

Gary Marcus对Sam Altman AGI基本已解决观点的反驳

摘要

Gary Marcus针对Sam Altman声称AGI基本已解决的观点进行了系统性反驳。Marcus指出,大型语言模型在分布偏移、常识推理、模型脆弱性等方面仍存在根本性缺陷,纯LLM扩展已进入边际收益递减期,且幻觉问题依然未解。他认为这些长期存在的问题缺乏原理性解决方案,因此对AGI的前景持谨慎态度。

内容框架与概述

Sam Altman近期在其博客中声称,我们已经知道如何构建传统意义上的AGI。这一观点立即引发了AI领域的广泛讨论。作为AI领域的知名批评家和认知科学家,Gary Marcus对此表示强烈反对,并列举了八个关键问题来支撑他的论点。

Marcus首先从分布偏移问题入手,指出LLMs在相似任务上表现良好,但在不熟悉领域中的可靠性仍然存在问题。他引用了苹果2024年的推理论文验证了这一观点,并强调自己早在1998年就提出了类似问题。更值得注意的是,即便是数学问题这样的看似确定性领域,变量名称等微小变化也会导致问题解决能力下降30%,这充分说明了分布偏移问题的普遍性。

在常识推理方面,Marcus与Ernie Davis的回顾研究表明,常识推理的不稳定性仍然是一个棘手问题。即便是像o1这样的先进模型,在某些基准测试中的结果也可能很脆弱或难以复制。Marcus强调,在o1的最佳表现案例中可能进行了大量数据增强,但这种策略在更开放的领域中是不可行的,这也限制了模型的实际泛化能力。

Marcus进一步指出,纯LLM扩展已经进入边际收益递减期,这一观点得到了许多领域内领先人物的认同。更严重的是,由于缺乏明确、可访问、可靠的数据库式记录,幻觉问题依然存在,导致不准确的新闻摘要、诽谤、虚构来源、错误建议和不可靠性。他认为,尽管不能100%确定AGI不在眼前,但目前还没有看到对这些长期存在的问题的原理性解决方案。

核心概念及解读

分布偏移问题:这是指AI模型在训练数据分布之外的领域表现显著下降的现象。Marcus指出,LLMs在相似任务上泛化良好,但遇到不熟悉的领域时,即使是微小的变化也可能破坏其性能。这一问题在1998年就被Marcus提出,至今仍未得到有效解决。

常识推理的脆弱性:常识推理是人类智能的核心特征,但对AI系统来说仍然是一个巨大挑战。Marcus与Ernie Davis的研究表明,即使是最先进的LLMs,在常识推理任务上也表现出明显的不稳定性,这限制了它们在实际应用中的可靠性。

边际收益递减:Marcus指出,许多领域内领先人物已经承认,纯LLM扩展可能已经进入边际收益递减期。这意味着单纯通过扩大模型规模来提升性能的策略越来越难以奏效,AI发展可能需要寻找新的技术路径。

幻觉问题的根源:LLMs缺乏明确、可访问、可靠的数据库式记录,这导致它们经常生成看似合理但实际错误的内容。这一问题不仅影响新闻摘要、建议系统等应用,还可能导致诽谤和虚假信息的传播。

科学的可验证性标准:Marcus在文章末尾引用评论指出,除非有可以独立验证的、符合科学标准的演示,否则AGI仍然是科幻小说。这反映了AI研究中科学严谨性与商业宣传之间的张力。


原文信息

字段内容
原文Why I don’t share Sam Altman’s confidence that AGI is basically a solved problem
作者Gary Marcus
发表日期未注明

此文档由 AI 自动整理