2025-12-27

斯坦福HAI:AI透明度正在下降「Rosetta」

摘要

斯坦福HAI联合多所顶尖研究机构发布的2025年基础模型透明度指数(FMTI)显示,AI行业整体透明度水平持续恶化,平均分从2024年的58分降至40分。在评估的13家公司中,仅IBM以95分创下历史最高分,而xAI和Midjourney则以14分创下历史最低。研究揭示,行业在训练数据、算力使用、环境影响及社会影响四大关键领域系统性不透明,且"开放性"并不等同于"透明度"。随着AI公司规模和影响力空前增长,这种透明度缺失现象亟需政策干预。

内容框架与概述

文章开篇即点明研究背景:AI公司从未像当下这般重要,七家老牌AI公司占标普500指数权重超过35%,OpenAI和Anthropic等初创公司成为史上最有价值的私营企业,数十亿人正在使用基础模型。在此背景下,斯坦福、伯克利、普林斯顿和麻省理工学院的研究团队联合发布2025年基础模型透明度指数,旨在评估主要AI公司及其旗舰模型的透明度。

紧接着,文章呈现了核心发现:全行业平均得分仅40分,出现明显分层——第一梯队约75分,中游约35分,低分梯队约15分。IBM以95分高居榜首,成为唯一提供足够训练数据细节供外部复现的公司;xAI和Midjourney则以14分垫底,未披露任何关于数据、风险或缓解措施的信息。研究团队特别指出,Meta从2023年的第一名跌至2025年的倒数第一,OpenAI也从第二跌至倒数第二,而AI21 Labs则从倒数第二跃升至榜首,这些剧烈变化反映了透明度实践的重大转变。

文章进一步深入分析透明度下降的具体表现。由于AI生态系统的显著变化,2025年指数更新了评估标准,首次纳入四家新公司(包括首家中国公司阿里巴巴),这些公司均位于下半区。研究识别出四大系统性不透明领域:训练数据、训练算力、模型使用方式以及社会影响。尤其在环境影响方面,13家公司中有10家未披露任何关键信息,包括能源使用、碳排放和用水量,这在数据中心大规模投资给电网带来压力的当下显得尤为重要。

最后,文章区分了"开放性"与"透明度"两个常被混淆的概念:开放指模型权重公开可用,透明指向公众披露重要实践信息。虽然总体上开放开发商更透明,但DeepSeek、Meta和阿里巴巴等有影响力的开放开发商却相当不透明。文章总结道,分享AI公司内部信息是重要的公共产品,有助于确保公司治理、减轻AI危害并促进有效监督,基础模型透明度指数可为政策制定者提供指引。

核心概念及解读

基础模型透明度指数(FMTI):斯坦福HAI联合多所研究机构发布的年度报告,采用100分制评估主要AI公司及其旗舰模型在训练数据、风险缓解、经济影响等15个领域的透明度。2025年版是第三次发布,显示行业整体透明度从2024年的平均58分降至40分。

系统性不透明:指AI行业在四个关键领域持续缺乏信息披露:训练数据来源与构成、训练算力消耗、模型实际使用方式、以及对社会和环境的实际影响。这些领域已持续三年不透明,成为政策干预的成熟时机。

开放性与透明度:两个相关但不同的概念。开放性指模型权重公开可用的技术属性,透明度指向公众披露重要实践信息的治理属性。研究显示,虽然开放开发商总体上更透明,但DeepSeek、Meta等有影响力的开放开发商却相当不透明,说明模型权重的公开发布并不能保证在风险评估、环境影响等更广泛议题上的透明度。


原文信息

字段内容
原文斯坦福 HAI:AI 透明度正在下降Rosetta
作者
发表日期2025-12-27

此摘要卡片由 AI 自动生成