AI与医疗:效率与理解力的博弈

解析张文宏的“去技能化”预警与全球医疗系统的应对策略

2026-01-14

AI与医疗:效率与理解力的博弈

作者阿兹特克小羊驼 (@AztecaAlpaca)
发布时间:2026-01-14
原文链接点击跳转

封面图

解析张文宏的“去技能化”预警与全球医疗系统的应对策略

在1月10日于香港举行的高山书院十周年论坛上,国家传染病医学中心(上海)主任张文宏教授就 AI 在医疗领域的应用分享了见解。

张文宏观点

张文宏明确反对将其系统性地引入医院的日常诊疗流程。

张文宏解释: 他个人使用 AI 的方式是让其对病例“先看一遍”,事后凭借深厚的专业经验,他可以一看就知道 AI 哪里是错的。

张文宏担忧的在于,一名医生若从实习阶段就未经完整的诊断思维训练,直接借助 AI 获得结论,将导致其无法鉴别 AI 诊断的正误。这种能力的缺失,是隐藏在技术便利背后的深层隐患。

张文宏医生是一位话题人物,经常能够抛出值得讨论的问题。这一次,无疑又引起了热议。

热议

在当前,如何将 AI 应用于医疗,始终是个热点话题。首先,繁琐的医疗工作者不可能不用 AI。但医疗又是一个偏保守的行业,至少作为患者的时候,每个人还是希望能够被严肃对待。

保守与效率

医疗中,AI 在不同阶段的参与方式与风险评估

当我们把人工智能放进医生的诊室时,我们其实是在进行一场巨大的交易。一方面,我们看到了惊人的效率——机器不知疲倦,能处理海量数据;但另一方面,我们面临着一个根本性的隐患:如果机器替医生做了所有的思考,医生还会思考吗?

交易与隐患

这里有几个关键点:

  1. 认知风险是真实的: 张文宏医生提出的观点非常犀利。如果你让年轻医生在学会如何独立诊断之前就依赖 AI,你就剥夺了他们“挣扎”的机会。没有这种认知的挣扎,就没有技能的习得。最终,医生可能变成仅仅是给算法盖章的办事员。
  2. 但收益也是巨大的: 我们不能因噎废食。在阅片这种枯燥且容易出错的工作上,AI 是完美的“第二双眼睛”。它还能处理那些让医生精疲力竭的文书工作,把医生还给病人。
  3. 规则正在制定: 无论是美国、欧盟还是亚洲,大家都在做同一件事:给这个强大的工具装上护栏。核心原则很简单——不管机器多么聪明,最终签字负责的必须是人类。
  4. 教育必须改变: 既然世界变了,学校也得变。哈佛和英国的医学院正在教学生如何质疑 AI,甚至强迫学生在“关掉 AI”的情况下进行演练,以确保他们的基本功没有退化。

总之,AI 是一把手术刀,行善与作恶就在毫厘之间。在这一行,你必须比手中的工具更聪明,否则你就不是在做手术,而是在制造灾难。

接下来我们将对上述要点进行详细解读,我们需要搞清楚,为什么在医疗中,使用 AI 远比仅仅“使用工具”更复杂。

1. 便利是思维的敌人吗?

这就是我们面临的“认识论危机”。张文宏医生的观点触及了学习的本质。

想象一下学习物理,如果他在学会牛顿定律之前就只会背公式表,他永远成不了物理学家。医学也是如此。张文宏担心的是,如果我们让 AI 系统性地接管诊断流程,年轻医生就会跳过“第一性原理”的推导过程。他们会直接得到答案,而错过了那种构建直觉所必需的“脑力折磨”。

当 AI 直接把结果端上来时,我们的大脑就会停止那种深入的、慢速的分析(系统2思维),转而依赖直觉(系统1思维)。结果?我们得到了一群只会验证答案、不会寻找答案的医生。

思维危机

2. 技能退化:当大脑进入“自动驾驶”

这不仅仅是担忧,这已经在发生了。当你不再使用某种肌肉,它就会萎缩;大脑也是一样。

  • 静默的自动驾驶: 医生习惯了 AI 总是对的,于是停止了检查。他们脑中的疾病模型因为长期不用而变得迟钝。
  • 捷径式学习: 实习生用 AI 读摘要,而不是自己去啃复杂的病历。这就像是只看电影解说而不看电影,你以为你懂了,其实你什么都没懂。
  • 提示词贫乏: 医生如果只会给 AI 下达简单的指令,他们得到的也只是泛泛的回答。

自动驾驶风险

更糟糕的是自动化偏见。这是一种心理陷阱:我们倾向于相信屏幕上的东西。即使 AI 犯了一个显而易见的错误,或者漏掉了一个关键信号,医生也可能因为过度信任机器而选择无视自己的直觉。这就像是我们为了省点脑力,就把方向盘交给了并不完美的自动驾驶仪。

3. 反方观点:我们需要这个“增益器”

尽管风险存在,但埃里克·托波尔(Eric Topol)等人的观点同样有力:人类本身就是充满缺陷的。我们会累,会看走眼,会有偏见。

增益器

  • 安全网: 在放射科,AI 不累。它能发现人类因疲劳而漏掉的肺结节。这不仅是效率,这是救命。
  • 把时间还给医生: 现在的医生被文书工作淹没了。如果 AI 能处理这些琐事,医生就能去做只有人类能做的事——倾听病人,理解那些数据之外的痛苦。
  • 超越人类的极限: AI 能看见我们看不见的模式。它能综合一个人一生的健康数据来预测败血症。这不仅仅是辅助,这是超越。

4. 深入案例:AI 写病历的隐形代价

用 AI 自动生成病历听起来很棒,能省下无数小时。数据也支持这一点:医生轻松了,病人觉得医生更专注了。

但这里有个微妙的陷阱——“脱钩”

脱钩

写病历不仅仅是记录,它其实是医生整理思路、消化信息的过程。如果你把这个过程外包给机器,你可能就失去了对病例深层理解的机会。而且,机器往往会过滤掉那些混乱的、情绪化的、非语言的细节,而这些往往是精神科或复杂疾病诊断的关键。机器懂语言,但它不懂“弦外之音”。

5. 监管:全球在做什么?

世界各地的监管机构都在试图解决同一个问题:如何既要创新,又不要失控。

全球监管

  • 欧盟(预防为主): 他们的《人工智能法案》很严格,把医疗 AI 定为“高风险”。这就像是说:“在你证明它绝对安全之前,我们要盯着你。”
  • 美国(风险导向): FDA 更务实。他们把行政工具和诊断工具分开管。他们甚至搞出了“预定变更控制计划”,允许 AI 在一定范围内自我学习和进化,只要不出圈。
  • 日本与新加坡(国家战略): 日本因为缺人,所以急着要用 AI,但现在开始强调国家层面的支持。新加坡则非常务实,他们建立“沙盒”,让你在可信的环境里跑,但底线很清楚:医生必须是最后的决策者。

6. 教育的变革:培养“混合型”医生

教育变革

既然现实变了,我们不能再用旧方法教学生。

  • 哈佛: 不再只是死记硬背解剖学,现在要学数据素养和伦理。
  • 英国与新加坡: 最有趣的是“无 AI 演练”。就像飞行员必须练习手动降落一样,医生必须定期被强制切断 AI 辅助,靠自己的大脑和双手看病。这不仅是为了应急,更是为了保持大脑的敏锐。

无AI演练

7. 结论:无论是谁,都不应该把大脑外包

对该问题的讨论,显然不光关于技术,更关于我们如何定义“医生”。

如果我们让 AI 取代了思考的过程,我们就不仅是在使用工具,而是在退化。未来的医生不需要和机器比记忆力,那场比赛我们已经输了。未来的医生需要做机器做不到的事:批判性地评估机器的输出,理解复杂的背景,并在机器犯傻时(它们经常犯傻)果断地介入。

清醒的仲裁者

AI 应该是望远镜,让你看得更远,但很多时候它却让人盲目前行。为了病人的福祉,医生必须是那个最终的、清醒的仲裁者。


关于作者 阿兹特克小羊驼 AI画匠,Prompt Kiddie、球迷(勇士&马刺@ NBA,利物浦@英超)。休憩于科技与人文的十字路口,探寻科学、思想与生活的张力。