Siddhant Pusdekar · 2025-09-02

AI 进入资助博弈:挑选赢家

摘要

帝国理工学院气候解决方案催化项目利用AI工具从上万篇论文中筛选具有商业化潜力的气候研究,并向入选者提供无条件资助。这一创新模式引发学界关注:支持者认为AI可加速评审、发掘被忽视的研究潜力并减少性别等偏见;反对者则担忧AI可能复制历史偏见、威胁研究机密性。目前美英主要资助机构对AI应用持谨慎态度,开发者也强调AI只是"加速器",无法完全替代人类判断。

内容框架与概述

文章以爱丁堡大学化学家Joanna Sadler收到一封意外资助邮件的故事开篇,引出帝国理工学院气候解决方案催化项目(CSC)。该项目利用经过训练的ChatGPT扫描英国研究者自2010年以来发表的一万篇论文摘要,识别具有商业化前景的气候相关研究,最终结合专家评审筛选出资助对象。资助金额3.5万英镑,无附加条件,旨在帮助学者探索学术拨款通常不覆盖的商业化路径。

文章随后展开正反两方面的讨论。支持者认为AI主动筛选机制可能更公平,西北大学研究显示女性学者即使研究潜力相当也更难获得专利,AI或可发掘"象牙塔中被埋没的创新潜力"。美国科学家联合会还呼吁政府推动AI分析资助申请,帮助评审者理解跨学科价值。

然而质疑声同样存在。研究表明风投公司使用AI决策时倾向于投资与过去成功案例相似的项目,这在创新领域未必有效。美国国立卫生研究院和英国研究与创新署已分别禁止评审过程使用AI工具,主要出于数据保密性考虑。文章最后引用开发者观点作结:AI本质上是"大型加速器",需要更多测试来验证其实际效果,但不会完全取代人类判断。

核心概念及解读

气候解决方案催化项目(CSC):帝国理工学院2024年启动的资助项目,获160万英镑慈善捐赠,利用AI筛选英国气候研究论文,向具有商业化潜力的研究者提供无条件资助,不索取股权或专利权。

AI筛选机制(Big Filter):将AI定位为初筛工具而非最终决策者的模式。CSC用ChatGPT从一万篇摘要中筛出160篇候选论文,再由人类专家评审确定最终资助名单,体现"人机协作"的审慎路径。

公平性悖论:AI既可能减少偏见(主动发掘被传统机制忽视的研究者),也可能固化偏见(复制历史成功模式)。这一张力是当前AI应用于资助决策的核心争议所在。

数据保密性风险:商业大语言模型默认使用上传数据进行训练,这使得研究提案的机密性难以保障,成为NIH等机构禁止评审环节使用AI的主要原因。


原文信息

字段内容
原文AI enters the grant game, picking winners
作者Siddhant Pusdekar
发表日期2025-09-01

此摘要卡片由 AI 自动生成