AI 进入资助博弈:挑选赢家
摘要
帝国理工学院气候解决方案催化项目利用AI工具从上万篇论文中筛选具有商业化潜力的气候研究,并向入选者提供无条件资助。这一创新模式引发学界关注:支持者认为AI可加速评审、发掘被忽视的研究潜力并减少性别等偏见;反对者则担忧AI可能复制历史偏见、威胁研究机密性。目前美英主要资助机构对AI应用持谨慎态度,开发者也强调AI只是"加速器",无法完全替代人类判断。
内容框架与概述
文章以爱丁堡大学化学家Joanna Sadler收到一封意外资助邮件的故事开篇,引出帝国理工学院气候解决方案催化项目(CSC)。该项目利用经过训练的ChatGPT扫描英国研究者自2010年以来发表的一万篇论文摘要,识别具有商业化前景的气候相关研究,最终结合专家评审筛选出资助对象。资助金额3.5万英镑,无附加条件,旨在帮助学者探索学术拨款通常不覆盖的商业化路径。
文章随后展开正反两方面的讨论。支持者认为AI主动筛选机制可能更公平,西北大学研究显示女性学者即使研究潜力相当也更难获得专利,AI或可发掘"象牙塔中被埋没的创新潜力"。美国科学家联合会还呼吁政府推动AI分析资助申请,帮助评审者理解跨学科价值。
然而质疑声同样存在。研究表明风投公司使用AI决策时倾向于投资与过去成功案例相似的项目,这在创新领域未必有效。美国国立卫生研究院和英国研究与创新署已分别禁止评审过程使用AI工具,主要出于数据保密性考虑。文章最后引用开发者观点作结:AI本质上是"大型加速器",需要更多测试来验证其实际效果,但不会完全取代人类判断。
核心概念及解读
气候解决方案催化项目(CSC):帝国理工学院2024年启动的资助项目,获160万英镑慈善捐赠,利用AI筛选英国气候研究论文,向具有商业化潜力的研究者提供无条件资助,不索取股权或专利权。
AI筛选机制(Big Filter):将AI定位为初筛工具而非最终决策者的模式。CSC用ChatGPT从一万篇摘要中筛出160篇候选论文,再由人类专家评审确定最终资助名单,体现"人机协作"的审慎路径。
公平性悖论:AI既可能减少偏见(主动发掘被传统机制忽视的研究者),也可能固化偏见(复制历史成功模式)。这一张力是当前AI应用于资助决策的核心争议所在。
数据保密性风险:商业大语言模型默认使用上传数据进行训练,这使得研究提案的机密性难以保障,成为NIH等机构禁止评审环节使用AI的主要原因。
原文信息
| 字段 | 内容 |
|---|---|
| 原文 | AI enters the grant game, picking winners |
| 作者 | Siddhant Pusdekar |
| 发表日期 | 2025-09-01 |
此摘要卡片由 AI 自动生成