AI 透明度正在下降
摘要
斯坦福大学联合伯克利、普林斯顿和MIT发布的2025年基础模型透明度指数揭示,AI行业透明度持续走低,平均得分仅40分。IBM以95分创历史新高,而Meta和OpenAI排名大幅下滑。研究发现,行业在训练数据、环境影响等关键领域系统性地缺乏透明度,且开源模型权重并不等同于企业实践透明。报告呼吁政策干预以促进行业信息公开。
内容框架与概述
文章开篇指出AI公司影响力空前,七家头部企业占据标普500超35%市值,但其透明度状况令人担忧。斯坦福等机构发布的年度透明度指数显示,2025年行业透明度不升反降,公司之间差异显著:IBM得分95分位居榜首,而xAI和Midjourney仅14分垫底。
报告详细分析了透明度变化趋势。从2024年到2025年,平均得分从58分骤降至40分。Meta得分从60分跌至31分,Mistral从55分降至18分。原先排名靠前的Meta和OpenAI现已跌至末位,而AI21 Labs则从倒数第二升至首位。这一洗牌反映了企业透明度实践的重大变化,例如Meta未发布Llama 4技术报告,Google延迟发布Gemini 2.5模型文档。
文章进一步剖析了行业系统性不透明的四个关键领域:训练数据、训练算力、模型使用方式及社会影响。在环境影响方面,13家公司中有10家未披露任何能耗、碳排放或用水信息。报告还特别澄清了"开放"与"透明"的区别——开源模型权重并不意味着公司实践透明,DeepSeek、Meta等主要开源开发者的透明度实际上相当低。文章最后强调,提升透明度是AI政策的首要任务,加州等地已通过相关立法,透明度指数可为政策制定者提供参考。
核心概念及解读
基础模型透明度指数(Foundation Model Transparency Index):由斯坦福等机构每年发布的综合评估报告,以100分制衡量AI公司在训练数据、风险缓解、经济影响等维度的信息披露程度,是目前追踪AI行业透明度的权威基准。
开放性与透明度的区分(Openness vs. Transparency):开放指模型权重公开可用,透明则指企业披露其实践信息。两者常被混淆,但实证表明开源并不保证透明——DeepSeek和Meta虽开源却相当不透明。
系统性不透明领域:行业在训练数据来源、训练算力规模、模型实际使用情况及社会影响四个方面持续缺乏披露,这些领域与AI供应链紧密相关,亟需政策干预。
环境影响信息缺失:13家受评公司中10家未披露任何能耗、碳排放或用水数据,而AI数据中心的大规模建设已对电网造成压力并推高能源价格。
透明度的政策价值:报告指出信息共享是确保企业治理、减轻AI危害的公共利益所在,加州等地已立法强制要求前沿AI的风险透明度,透明度指数可帮助政策制定者识别需要干预的领域。
原文信息
| 字段 | 内容 |
|---|---|
| 原文 | Transparency in AI is on the Decline | Stanford HAI |
| 作者 | |
| 发表日期 | 未知 |
此摘要卡片由 AI 自动生成