CNBC · 2025-08-14

AGI已成伪命题?Sam Altman与专家对"通用人工智能"概念的再思考

摘要

OpenAI CEO Sam Altman在CNBC采访中直言,AGI(人工通用智能)已"不是一个特别有用的术语"。本文结合多位计算机科学专家的观点,深入探讨AGI定义的模糊性、行业内外对其的不同解读,以及为何越来越多的业内人士认为,与其执着于"AGI"这一模糊目标,不如关注AI在各专业领域的实际进展。文章同时梳理了OpenAI最新发布的GPT-5模型的市场反响,以及行业对AI发展路径的理性反思。

内容框架与概述

文章首先围绕Sam Altman在CNBC"Squawk Box"节目中的言论展开,他坦言AGI这一概念在当前的技术讨论中已经失去了实际意义。AGI通常被定义为"能够完成任何人类智力任务的人工智能",但Altman指出,业界和学界对AGI的定义各不相同,有人将其理解为"能完成世界上大量工作的AI",而"工作"的内涵本身在不断变化,这使得AGI的标准变得愈发模糊。他强调,AI能力的提升是一个持续的、指数级的过程,社会将越来越多地依赖AI完成各类任务,与其纠结于"是否达到AGI",不如关注AI能力的实际扩展和应用。

这一观点得到了多位专家的认同。The Futurum Group副总裁Nick Patience认为,AGI虽然是一个激励人心的"北极星",但其模糊、科幻色彩浓厚的定义,反而掩盖了AI在专业领域的真实进展。他指出,AGI概念更多地被用来吸引资金和公众关注,而非推动技术本身的落地。事实上,OpenAI等初创公司正是凭借"终将实现AGI"的承诺,获得了数十亿美元的投资和高估值,OpenAI最近一次估值高达3000亿美元。

文章进一步分析了资本炒作与技术现实之间的落差。2025年8月,OpenAI发布了最新的GPT-5模型,声称其在写作、编程、医疗健康等领域"更聪明、更快、更有用",但市场反应褒贬不一,许多评论认为这只是对前代产品的"渐进式升级",并未带来革命性突破。南安普顿大学计算机科学教授Wendy Hall批评当前行业"如同蛮荒西部",缺乏统一的衡量标准,容易滋生虚假宣传。她呼吁AI公司在发布新产品时应公开其在全球公认标准下的表现指标。

最后,Altman提出了一种新的思考框架。他坦言,OpenAI最新模型尚未达到他个人对AGI的定义——即系统能够自主、持续学习。他认为,与其用"是否AGI"这种二元划分,不如用"能力层级"来描述AI距离"通用智能"还有多远。在2024年FinRegLab AI Symposium上,Altman表示,OpenAI现在更倾向于用不同的"能力层级"来衡量AI进展。他预测,未来两年内,AI将在某些专业领域(如数学定理、科学发现)实现关键突破,但距离真正意义上的"通用智能"仍有距离。

核心概念及解读

AGI定义的模糊性:AGI(人工通用智能)通常被定义为"能够完成任何人类智力任务的人工智能",但这一概念在实践中缺乏清晰的边界。Sam Altman指出,业界对AGI的理解各不相同——有人将其理解为能够完成"世界上大量工作"的AI,但"工作"的内涵本身在不断演进,这使得AGI的标准变得愈发主观和模糊。这种定义上的不一致,导致技术讨论常常陷入无谓的争论。

能力层级 vs. 二元划分:Altman提出,AI的发展应该用"能力层级"(progress levels)来衡量,而不是"是否达到AGI"这种非黑即白的标准。每一代AI模型都在某些领域实现了突破,行业应该关注这些具体进展,而非执着于一个模糊的终极目标。这种框架转变反映了业界对AI发展的更理性、更务实的态度。

北极星 vs. 分散注意力的噱头:专家们对AGI概念的价值存在分歧。Nick Patience认为,AGI可以作为一个激励行业前行的"北极星",但其过度炒作和模糊定义,反而使其成为"分散注意力的噱头",主要被用来吸引巨额融资。这种炒作现象分散了公众和投资者对AI实际能力和应用价值的关注。

蛮荒西部与蛇油推销:南安普顿大学教授Wendy Hall用"蛮荒西部"来形容当前AI行业缺乏统一标准的现状。她批评行业中存在"蛇油推销"(snake oil salesmen)现象,即公司通过夸大宣传来吸引投资和用户。她呼吁建立全球公认的评估标准,让AI产品的表现能够被客观衡量。

专业突破 vs. 通用智能:Altman预测,未来两年内,AI将在某些专业领域(如数学定理证明、科学发现)实现关键突破,但距离真正意义上的"通用智能"仍有距离。这一判断与许多专家的观点一致——AI的真正价值在于其在各专业领域的落地能力,而非追求一个遥不可及的"通用"目标。


原文信息


此文档由 AI 自动整理