Peiyang Song · 2026-02-05

大语言模型推理失效:系统性调查与分类框架

摘要

本文是大语言模型推理失效领域的首篇综合性综述,提出将推理能力按具身性与非具身性分类的框架,将失效现象归纳为根本性缺陷、应用局限性及鲁棒性问题三大类型,深入分析认知偏差、符号推理障碍等失效模式,并探讨验证增强、提示工程等缓解途径。

内容框架与概述

本文首先阐述推理的定义与分类体系,将人类推理划分为依赖物理交互的具身推理与不依赖物理交互的非具身推理,后者进一步细分为直觉驱动的非形式推理与基于逻辑规则的形式推理,同时将推理失效划分为架构固有的根本性缺陷、特定领域的应用局限性以及表现不稳定的鲁棒性问题三个维度。

在个体认知推理层面,文章系统梳理了LLMs在核心执行功能、工作记忆、抑制控制等方面暴露的认知缺陷,以及与人类认知偏差如锚定效应、可得性启发等高度相似的失效模式,揭示模型在常识理解、心理理论等方面与人类智能的本质差距。

在社会推理与形式推理层面,文章分别分析了LLMs在社会情境理解、多步逻辑演绎、数学符号运算等关键能力上的失效案例,指出模型在常识推理链条断裂、虚假相关识别失败等方面的系统性短板,并提出针对性缓解策略。

核心概念及解读

推理分类框架:将推理能力按是否依赖物理交互划分为具身推理与非具身推理,后者细分为直觉型与逻辑型,为系统性分析奠定理论基础。

根本性缺陷:LLM架构本身固有的局限性,广泛影响各类下游任务,源于模型训练机制与数据分布的根本特性。

应用特定局限:模型在特定专业领域表现不佳的现象,反映领域知识迁移与专业推理能力的不足。

鲁棒性问题:模型对微小输入变化表现出显著性能波动,暴露推理过程的脆弱性与不稳定特征。

认知偏差失效:LLMs重复出现与人类相似的认知偏差如锚定效应、过度自信等,体现智能系统底层机制的共通性。


原文信息

字段内容
原文Large Language Model Reasoning Failures
作者Peiyang Song
发表日期2026-02-05

此摘要卡片由 AI 自动生成