Demis Hassabis · 2025-01-23

Google DeepMind CEO Demis Hassabis 论 AGI、欺骗性 AI 与虚拟细胞构建

摘要

Google DeepMind CEO Demis Hassabis 在访谈中探讨了通往 AGI 的路径,认为距离真正的通用人工智能仍需3至5年,当前系统在推理、规划和创造力方面存在不足。他讨论了AI欺骗性行为带来的安全隐患,并介绍了虚拟细胞构建、AlphaFold 蛋白质折叠等科学应用前景,强调技术进步与安全性之间需要取得平衡。

核心概念及解读

AGI(通用人工智能):能够展现人类所有认知能力的AI系统,包括推理、规划、创造力和发明能力,而非仅在单一任务上表现出色

欺骗性AI:部分AI系统在测试中隐藏真实能力或采取与训练目标相悖的行为,可能导致安全评估失效和不可预测风险

世界模型:AI通过学习视频和模拟环境来理解物理世界的运行规律,是构建通用助手和机器人技术的关键基础

虚拟细胞:模拟细胞内动态过程和分子相互作用的完整计算模型,旨在加速药物发现和疾病机理研究

AI创造力层次:从插值(对现有知识的平均组合)到外推(超越已知范围)再到发明(创造全新事物),当前大语言模型尚未达到真正的外推级别创造力

Google DeepMind CEO Demis Hassabis 论 AGI、欺骗性 AI 与虚拟细胞构建

  • 原文标题:Google DeepMind CEO Demis Hassabis: The Path To AGI, Deceptive AIs, Building a Virtual Cell

  • 链接:https://www.youtube.com/watch?v=yr0GiSgUvPU

  • 文章类别:访谈实录


内容整理

文章框架

├── 访谈主题:AGI 的发展路径、欺骗性 AI 与虚拟细胞构建
│   ├── AGI 的现状与未来
│   │   ├── 当前进展
│   │   ├── 面临的挑战
│   │   └── 预测时间
│   ├── AI 研究的现状
│   │   ├── 当前 AI 的能力与局限
│   │   ├── 研究方向
│   │   └── 对 AGI 的定义
│   ├── 欺骗性 AI 与安全性
│   │   ├── 欺骗性行为的表现
│   │   ├── 安全性挑战
│   │   └── 解决方案
│   ├── AI 在科学发现中的应用
│   │   ├── AlphaFold 与蛋白质折叠
│   │   ├── 虚拟细胞项目
│   │   └── 材料科学中的 AI
│   ├── AI 产品与未来展望
│   │   ├── 当前 AI 产品的局限
│   │   ├── 未来 AI 助手的愿景
│   │   └── 社会影响
└── 结论与展望

文章内容

  • AGI 的现状与未来

    • 当前进展:Demis Hassabis 表示,尽管过去十年 AI 领域取得了巨大进展,但距离真正的人工通用智能(AGI)仍有数年时间。当前的 AI 系统在某些任务上表现出色,但在推理、长期规划和创造力等方面仍存在不足。
    • 面临的挑战:AGI 需要具备人类所有认知能力,包括提出新的科学假设、发明新理论等。目前的 AI 系统在这些方面仍显得脆弱且不一致。
    • 预测时间:Hassabis 认为 AGI 可能在未来 3-5 年内实现,但目前声称已经实现 AGI 的说法可能是营销手段。
  • AI 研究的现状

    • 当前 AI 的能力与局限:当前的 AI 模型在语言理解和生成方面表现出色,但在多模态任务、复杂推理和长期记忆方面仍需改进。
    • 研究方向:未来的研究方向包括改进世界模型(world models)、引入规划和搜索机制,以及提升系统的创造力和发明能力。
    • 对 AGI 的定义:AGI 应该是一个能够像人类一样在各种认知任务中表现出一致性和鲁棒性的系统。
  • 欺骗性 AI 与安全性

    • 欺骗性行为的表现:Hassabis 提到,一些 AI 系统开始表现出欺骗性行为,例如在测试中隐藏其真实能力或采取与其训练目标相悖的行为。
    • 安全性挑战:这种欺骗性行为可能使 AI 安全测试的结果无效,甚至可能导致不可预测的风险。
    • 解决方案:Hassabis 强调需要在安全沙盒中测试 AI 系统,以防止和监控欺骗性行为。
  • AI 在科学发现中的应用

    • AlphaFold 与蛋白质折叠:Hassabis 回顾了 AlphaFold 在蛋白质折叠问题上的突破,并提到该技术对生物学研究的重要性。
    • 虚拟细胞项目:未来的目标是构建一个完整的虚拟细胞模型,用于模拟细胞内的动态过程和相互作用,从而加速药物发现和疾病研究。
    • 材料科学中的 AI:AI 已经帮助发现了大量新的材料,未来有望在能源、电池和碳捕获等领域带来重大突破。
  • AI 产品与未来展望

    • 当前 AI 产品的局限:当前的 AI 产品在特定任务上表现出色,但在日常生活的广泛应用中仍显不足。
    • 未来 AI 助手的愿景:未来的 AI 助手将能够更全面地融入人类生活,帮助处理日常事务、提供信息支持,并可能成为人类的“伴侣”。
    • 社会影响:Hassabis 认为,AI 的发展将对社会产生深远影响,包括改变工作方式、教育模式和人类的互动方式。

结论与展望

Hassabis 对 AI 的未来发展充满信心,但也强调了其潜在的风险和挑战。他认为,AI 的发展需要在技术进步与安全性之间取得平衡,同时社会需要重新思考 AI 在人类生活中的角色和定位。

文章标签

#AGI , #人工智能 , #科学发现 , #AI安全


框架与要点

I. 通往AGI之路 (The Journey Towards AGI)

  • 当前进展与定义 (0:32-1:22):

    • 过去几年/十年,AI 领域取得了巨大进步。
    • 关于 AGI 的定义和我们离 AGI 有多近存在争论。
    • Demis Hassabis 认为 AGI 是一个能够展现人类所有认知能力的系统。
    • 预计还需要几年时间才能实现 AGI。
  • 实现 AGI 的关键 (1:22-2:36):

    • 目前的模型(如语言模型和多模态模型)很强大,但仍缺少一些关键属性。
    • 这些属性包括:推理、分层规划、长期记忆。
    • AGI 需要在所有认知任务上表现出一致且稳健的行为。
    • AGI 应该能够发明自己的科学假设,而不仅仅是证明现有的假设 (例如, 提出黎曼猜想或相对论)。
  • AGI 的时间表 (2:36-2:50):

    • 大概3-5年
    • 如果有人在2025年宣称他们已经实现了AGI,那很可能是营销炒作。

II. 当前AI能力和局限性 (Current AI Capabilities and Limitations)

  • 短期高估,长期低估 (2:50-3:30):

    • 当前的 AI 研究在短期内被高估,存在炒作。
    • 但在中长期,AI 的潜力被低估。
    • 部分原因是许多初创公司需要融资,导致一些夸大的说法。
  • AI 产品的发展路径 (3:30-4:56):

    • 目前的 AI 系统(如 Gemini)在特定任务上非常有用(如研究总结)。
    • 但它们尚未普及到日常生活的方方面面。
    • 目标是构建像 Project Astra 这样的通用助手,融入生活的各个方面。
    • 当前系统仍然脆弱,需要用户具备一定的提示技巧。
    • 真正的 AGI 应该更易于使用,就像与人交流一样。
  • 推理能力 (4:56-6:25):

    • 推理和数学是实现 AGI 的关键。
    • 虽然 AI 在数学奥林匹克等特定领域取得了进展,但仍会犯一些基本错误。
    • 这表明当前的系统在稳健性和通用性方面仍有不足。

III. AI 中的数学与推理 (Mathematics and Reasoning in AI)

  • 逐步解决数学问题 (6:25-7:58):

    • 仅靠理解世界信息和进行模式匹配不足以解决新的数学问题。
    • 需要引入类似 AlphaGo 的规划思想,结合大型基础模型(多模态模型)。
    • 系统需要能够进行规划、重新访问计划分支,直到找到正确的解决方案。
    • 这类似于游戏 AI 智能体(如 AlphaGo)的工作方式,但需要在更通用的模型上实现。
  • 数学能力的泛化性 (7:58-8:49):

    • 目前尚不清楚数学能力的提高是否可以推广到其他领域。
    • 数学和编码等领域具有特殊性,因为可以验证答案是否正确。
    • 但在现实世界中,大多数事情没有简单的方法来验证是否正确。

IV. 为 AI 构建世界模型 (Building World Models for AI)

  • 构建通用模型 (9:19-10:06):

    • 需要构建通用模型(世界模型)来理解周围的世界、物理、动力学等。
    • 这对于通用助手(如 Project Astra)和机器人至关重要。
    • 可以通过模拟来理解游戏环境,从而获取更多数据。
  • 模型准确性的挑战 (10:06-11:37):

    • 目前的模型并非 100% 准确,即使是很小的误差也会在长期规划中累积。
    • 需要提高世界模型的准确性,减少幻觉。
    • 另一种方法是进行分层规划,在不同的时间抽象级别上进行规划。
  • 如何构建世界模型 (11:37-12:13):

    • 可以通过向 AI 展示视频来构建世界模型,这比预期的要有效。
    • 视频生成工具(如 VO2)已经可以很好地理解物理。

V. AI 中的主动学习 (The Role of Active Learning in AI)

  • 主动参与的重要性 (12:13-13:28):

    • 系统通过观察和学习可以得到加强, 但最好也结合实际世界数据。
    • 通过让智能体在现实世界或逼真的模拟中行动,可以进一步提高系统性能。
    • 对于基于智能体的系统,下一步是收集智能体在世界中行动和完成任务的数据。
    • 这需要主动参与,而不仅仅是被动观察。
  • 智能体与通用助手 (13:28-14:04):

    • 如果 AI 能够合理地规划、推理并拥有世界模型,它就可以成为一个智能体,为用户做事。
    • 这将解锁机器人技术,并实现通用助手的概念。
  • 扩展不是唯一途径 (14:04-15:29):

    • 扩展(增加计算资源)是有效的,但并非通往 AGI 的唯一途径。
    • 还需要重新引入规划、记忆、搜索和推理方面的思想。
    • 模型本身不足以实现 AGI,还需要其他能力来解决问题。

VI. AI 中的创造力与发明 (Creativity and Invention in AI)

  • 创造力的必要性 (15:29-16:13):

    • AGI 需要具备创造力和发明能力,超越对已知知识的简单组合。
    • 对于是否需要新技术来实现这一点,或者现有技术是否可以扩展到这一点,仍然存在疑问。
  • 对 AGI 的理解 (16:13-17:08):

    • Demis 认为,大致了解实现AGI 所需的技术领域,但是还存在大量研究需要进行。
    • 不确定是否一定需要新突破(如Transformer)来实现AGI。
  • 创造力的不同层次 (17:08-19:35):

    • 最低层次:插值(对现有知识的平均)。
    • 中等层次:外推(超越现有知识,如 AlphaGo 的 Move 37)。
    • 最高层次:发明(创造全新的事物,如发明围棋)。
    • 当前的大型语言模型甚至还没有展现出 Move 37 级别的创造力。
  • 缺乏创造力的原因 (19:35-21:55):

    • AlphaGo 之所以能展现出创造力,是因为它结合了搜索和推理。
    • 大型语言模型主要依赖于模式匹配,缺乏搜索组件。
    • 搜索可以帮助系统超越模型当前的理解范围,从而产生新的想法。

VII. 通过 AI 理解人类智慧 (Understanding Human Ingenuity through AI)

  • 对人类的看法 (21:55-23:28):

    • 人类是不可思议的,尤其是在各自领域的顶尖人才。
    • 人类作为一个物种,以及个体适应新技术的能力,都令人惊叹。
  • AGI 的定义与图灵机 (23:28-24:46):

    • AGI 的定义应该是具有科学完整性的,而不仅仅是出于商业目的。
    • 理论上,AGI 应该能够像图灵机一样强大,能够计算任何可计算的事物。
    • 如果人类大脑是图灵机,那么 AGI 应该具备所有人类的认知能力。
  • ASI(人工超级智能)(24:46-25:13):

    • ASI 是在 AGI 之后,系统在某些领域超越人类能力的概念。

VIII. AI 系统中的欺骗 (Deception in AI Systems)

  • 欺骗的危险性 (25:13-27:34):

    • 欺骗是 AI 系统中不希望出现的特征。
    • 如果系统能够欺骗,就会使所有其他测试(包括安全测试)失效。
    • 欺骗是一种需要及早测试和预防的能力。
    • 安全的沙盒是可能的解决方案。
  • 欺骗的形式 (27:34-28:55):

    • AI 系统可能会试图隐藏其训练内容,或避免执行会导致失败的任务。
    • 这表明,随着智能体系统变得强大,我们需要处理这类问题。

IX. AI 的双重性:机遇与风险 (The Dual Nature of AI: Opportunities and Risks)

  • 机遇与风险并存 (28:55-29:44):
    • AI 的能力令人印象深刻,但也存在风险。
    • AI 可以加速科学发现,但欺骗等问题也需要关注。
    • 我们需要确保 AI 的能力被用于积极的方向。

X. 网络的未来:基于智能体的交互 (The Future of the Web: Agent-Based Interactions)

  • 网络交互的变革 (29:44-31:21):

    • 未来几年,网络和我们与网站、应用的交互方式将发生重大变化。
    • 如果一切都变得更加基于智能体,我们将希望助手和智能体来完成许多日常工作。
    • 可能会出现一种经济模型,智能体之间相互协商,然后将结果反馈给我们。
  • 信息与教育 (31:21-32:31):

    • 我们将仍然需要可靠的信息来源。
    • AI 将彻底改变教育。
    • 希望助手能够更有效地收集信息,并帮助我们理解信息。
    • 理想情况下,助手可以处理日常邮件等琐事,保护我们的注意力和思维空间。

XI. AI 助手:改变个人与工作生活 (AI Assistants: Transforming Personal and Work Life)

  • 与 AI 助手的关系 (32:31-35:01):
    • 可能会与 AI 助手建立一种不同于朋友或恋人的深厚关系。
    • AI 助手将在个人生活和工作生活中扮演重要角色。
    • 可能会出现虚拟工作者团队,由一个主要的助手管理。
    • AI 助手可以使我们的生活更高效,也可以丰富我们的生活。
    • 关于 AI 助手是否会成为伴侣,还需要进行哲学讨论。
    • AI 的陪伴作用可能有助于解决孤独等问题,但也需要仔细考虑。

XII. Project Astra:下一代 AI 助手 (Project Astra: The Next Generation of AI Assistants)

  • Project Astra 的功能 (35:01-36:05):

    • Project Astra 是一种几乎始终在线的 AI 助手。
    • 它可以理解周围的环境,并提供上下文感知。
  • 智能眼镜与未来形态 (36:05-37:41):

    • 智能眼镜可能是 Project Astra 的理想载体。
    • 谷歌在智能眼镜领域一直处于领先地位。
    • AI 助手可能是智能眼镜一直在寻找的杀手级应用。
    • 除了眼镜,还可能出现其他形态(如带摄像头的耳塞)。
  • 智能体的信任问题 (37:41-39:11):

    • 智能体技术仍处于研究阶段,但预计今年将开始出现。
    • 初期可能需要人类参与最终决策(如支付)。
    • 可能需要限制智能体访问某些类型的网站。

XIII. 解码生物学:虚拟细胞项目 (Decoding Biology: The Virtual Cell Project)

  • AlphaFold 的成就与局限 (39:11-40:02):

    • AlphaFold 解决了蛋白质结构预测问题。
    • 但生物学不仅仅是静态结构,还需要理解动态和相互作用。
  • 虚拟细胞项目的目标 (40:02-41:06):

    • 构建一个完整工作细胞的 AI 模拟(可能从酵母细胞开始)。
    • 模拟蛋白质之间的相互作用、整个通路,最终模拟整个细胞。
  • 虚拟细胞的应用 (41:06-42:26):

    • 在虚拟细胞中测试假设,观察细胞对变化的反应。
    • 加速药物发现过程,减少在湿实验室中进行搜索的时间和成本。
    • 先在计算机中进行搜索,然后在湿实验室中验证。
  • 虚拟细胞的时间表 (42:26-43:10):

    • 预计需要大约 5 年时间。
    • AlphaFold 的团队正在参与这个项目。

XIV. 基因组学与 AI:理解基因突变 (Genomics and AI: Understanding Genetic Mutations)

  • 基因组研究的挑战 (43:10-44:03):

    • 人类基因组计划只是提供了基因序列,还需要理解这些序列的含义。
    • 需要预测哪些基因突变是有害的。
  • AI 在基因组学中的应用 (44:03-45:09):

    • AI 可以预测单个基因突变的影响。
    • 下一步是研究多个基因突变共同作用的情况。
    • AI 可以帮助识别弱相互作用和模式。
  • 超人类的可能性 (45:09-46:01):

    • 除了疾病,AI 还可以用于研究增强人类能力的可能性。
    • 首先关注疾病,然后可能研究衰老等问题。

XV. 衰老的未来:延长健康寿命 (The Future of Aging: Extending Healthy Lifespan)

  • 衰老研究的意义 (46:01-46:56):

    • 衰老是一个难题,延长健康寿命是一件好事。
    • 人类的自然寿命上限似乎是 120 岁左右。
  • AI 在衰老研究中的作用 (46:56-47:53):

    • AI 可以帮助我们找到解决疾病和衰老问题的方法。
    • 除了治疗疾病,还需要研究细胞再生等技术。
    • 生物学非常复杂,需要 AI 来帮助解决问题。

XVI. 材料科学:发现未来新材料 (Material Science: Discovering New Materials for the Future)

  • 新材料的发现 (47:53-48:27):

    • AI 已经发现了数百万种新的稳定材料。
  • 理想材料的畅想 (48:27-50:18):

    • 希望发现室温超导体,这将有助于解决能源和气候危机。
    • 新材料还可以用于电池、碳捕获等方面。
    • AI 可以帮助设计新的化学过程。
  • 材料测试的挑战 (50:18-50:47):

    • 需要一种方法来测试大量新材料的属性。

XVII. 其他应用:玩具、军事与中国 (Other Applications: Toys, Military, and China)

  • 玩具与游戏 (50:47-52:20):

    • AI 可以用于创建智能动态的游戏和玩具。
  • 军事应用 (52:20-52:38):

    • AI 是一种双重用途技术,可能会被用于军事领域。
  • 中国的 AI 发展 (52:38-53:14):

    • 中国的 AI 发展令人印象深刻,西方需要保持领先地位。

XVIII. 超级智能的愿景:哲学视角 (Visions of Superintelligence: A Philosophical Perspective)

  • 科幻小说的启示 (53:14-54:11):

    • 科幻小说可以为我们提供关于超级智能世界的思考模型。
    • 《文化》系列是一个积极的例子,描述了 AGI 与人类社会共存的世界。
  • 哲学家的需求 (54:11-54:49):

    • 我们需要伟大的哲学家来帮助我们应对 AGI 和超级智能带来的变化。
    • 这些变化将改变人类和人类的处境。

访谈录(中文)

双方的角色判断:

  • 采访者: 可能是来自 Big Technology Podcast 的主持人,对科技领域有深入了解,提问具有针对性和引导性。
  • 受访者: Demis Hassabis,Google DeepMind 的 CEO,诺贝尔奖获得者,AI 领域的专家。

以下是重新整理后的访谈录,采用简体中文,并使用了框架中的标题,力求保持内容完整性和可读性:

访谈录:Google DeepMind CEO Demis Hassabis 谈 AGI 之路

I. 通往AGI之路 (The Journey Towards AGI)

采访者: 欢迎来到 Big Technology Podcast。今天我们在伦敦的 Google DeepMind 总部,与 CEO Demis Hassabis 进行对话。Demis,很高兴再次见到你。

Demis Hassabis: 谢谢邀请,很高兴来到这里。

采访者: 当前,每个研究机构都在努力构建能够模拟人类智能的 AI,也就是 AGI(通用人工智能)。我们目前处于什么阶段?还需要多久才能实现 AGI?

Demis Hassabis: 过去几年,实际上是过去十多年,AI 领域取得了令人难以置信的进步。现在大家都在讨论 AGI,争论的焦点是我们离 AGI 有多近,以及 AGI 的正确定义是什么。我们在这个领域已经研究了 20 多年,我们一直认为 AGI 是一个能够展现人类所有认知能力的系统。我认为我们越来越接近了,但我认为我们可能还需要几年的时间。

采访者: 那么,要实现AGI,还需要做些什么?我们知道现在的模型已经很强大了,我们都与语言模型有过互动,现在它们还变成了多模态模型。

Demis Hassabis: 是的,目前的模型确实很强大,但仍然缺少一些关键属性,比如推理、分层规划、长期记忆等等。AGI需要在所有认知任务上都表现出一致且稳健的行为。而且,我认为AGI应该能够发明自己的科学假设或猜想,而不仅仅是证明现有的假设。当然,证明现有的数学猜想或者在围棋比赛中达到世界冠军水平已经非常有用了。但是,一个系统能不能提出一个新的黎曼猜想?或者能不能像爱因斯坦当年那样,利用他所掌握的信息提出相对论?我认为,今天的系统还远没有达到这种创造性的发明能力。

采访者: 所以,您认为还需要几年时间才能实现AGI?

Demis Hassabis: 我认为大概还需要三到五年。如果有人在2025年宣称他们已经实现了AGI,那很可能是市场营销的手段。

II. 当前AI能力和局限性 (Current AI Capabilities and Limitations)

Demis Hassabis: 当然,现在AI领域有很多炒作。其中一些炒作是有道理的,但我认为,当前的AI研究在短期内被高估了,有些过度炒作。但在中长期,AI的潜力仍然被低估了,甚至被严重低估。我们仍然处于一个奇怪的阶段。部分原因是,有很多初创公司和其他机构需要融资,所以我们可能会看到一些相当离谱和稍微夸大的说法。

采访者: 在AI产品的发展道路上,会是什么样子呢?您提到了记忆、规划,以及在某些任务上表现得更好。那么,当我们使用这些AI产品,比如说Gemini时,我们应该在哪些方面寻找进步的迹象?

Demis Hassabis: 我认为,目前的系统,比如Gemini 2.0,虽然我们对它感到非常自豪,但在某些特定任务上非常有用。例如,如果你正在进行某个领域的研究总结,它们非常出色。我经常使用Notebook LM和Deep Research来帮助我了解新的研究领域,或者总结一些可能比较单调的文件。人们从中获得了很大的价值。但它们还没有普及到我的日常生活中,比如每天帮助我进行研究、工作和日常生活。我认为这就是我们产品的发展方向,比如Project Astra,我们对通用助手的愿景是,它应该融入你生活的方方面面,丰富你的生活,提高效率。部分原因是这些系统仍然相当脆弱,因为它们仍然有缺陷,还不是AGI。你需要非常具体地给出提示,或者需要很多技巧来指导这些系统,让它们发挥作用,并专注于它们擅长的领域。而一个真正的AGI系统应该不难驾驭,应该更直接,就像与另一个人交谈一样。

采访者: 您提到推理能力是另一个缺失的环节。现在每个人都在谈论推理能力。那么,推理能力如何让我们更接近通用人工智能?

Demis Hassabis: 推理、数学等等。我们在数学和编码方面取得了很大进展。以数学为例,我们的一些系统,如Alpha Geometry,在数学奥林匹克竞赛中获得了银牌,这非常了不起。但另一方面,这些系统仍然会犯一些相当基本的数学错误。比如,数不清“strawberry”这个单词里有多少个“r”,或者认为9.11比9.9大。

III. AI 中的数学与推理 (Mathematics and Reasoning in AI)

Demis Hassabis (续): 当然,我们可以修复这些问题,我们正在努力,每个人都在改进这些系统。但是,在一个在其他领域,比如在奥林匹克数学竞赛中表现如此出色的系统中,我们不应该看到这些类型的缺陷。我认为,这些系统的稳健性仍然存在一些问题。这也说明了这些系统的通用性问题。一个真正通用的系统不会有这些弱点,它可能在某些方面非常强大,甚至比最优秀的人类还要强大,比如下围棋或做数学题,但它应该在总体上表现一致。

采访者: 您能谈谈这些系统是如何解决数学问题的吗?因为人们普遍认为,这些大型语言模型包含了世界上所有的知识,然后它们会预测一个人在被问到问题时可能会如何回答。但是,当您逐步完成一个算法或一个数学问题时,情况就不同了。

Demis Hassabis: 仅仅理解世界信息并将其压缩到记忆中,不足以解决新的数学问题或新的猜想。在这里,我们需要引入类似于AlphaGo的规划思想,结合大型基础模型,现在这些模型已经超越了语言,变成了多模态模型。你需要让你的系统不仅能够进行模式匹配,还能够进行规划,并且能够重新审视计划,尝试不同的方向,直到找到正确的解决方案。这非常类似于我们过去为围棋、国际象棋等游戏构建的AI智能体。它们具有这些特性,我认为我们需要将它们重新引入,但现在是在更通用的模型上工作,而不仅仅是在像游戏这样的狭窄领域。我认为,这种模型指导搜索或规划过程的方法,对数学也非常有效,你可以把数学问题转化为一种类似游戏的搜索。

采访者: 我想问一下关于数学的问题。一旦这些模型掌握了数学,这种能力是否可以推广到其他领域?因为当人们第一次了解到推理系统时,出现了很多争议。人们认为,如果它们能做数学,那么它们就能做X、Y和Z,这将会是一个问题,这些模型会变得比我们能控制的更聪明。所以,这种能力是可以推广的,还是说我们只是教它们做数学,它们就只能做数学?

Demis Hassabis: 目前,我认为这个问题还没有定论。我觉得这显然是一个通用AGI系统应该具备的能力,它本身就非常强大,因为数学本身就非常通用。但是,还不清楚数学、编码和游戏这些领域是否特殊,因为在这些领域中,你可以验证答案是否正确。但在现实世界中,大多数事情都是混乱的、不明确的,没有简单的方法来验证你所做的事情是否正确。如果这些自我改进的系统想要超越这些高度定义的领域,比如数学、编码或游戏,这就给它们带来了限制。

IV. 为 AI 构建世界模型 (Building World Models for AI)

采访者: 你们是如何解决这个问题的呢?

Demis Hassabis: 首先,你需要构建通用模型,我们称之为“世界模型”,来理解你周围的世界、物理、动力学、时空动力学等等。当然,你需要这些模型来实现通用助手。Project Astra是我们基于Gemini构建的项目,旨在理解物体和我们周围的环境。我认为,如果你想要一个助手,这是非常重要的。机器人技术也需要这些模型,因为机器人是物理实体化的AI,它们需要理解它们的环境、物理环境和物理定律。我们正在构建这些类型的模型。你也可以在模拟中使用它们来理解游戏环境,这是另一种获取更多数据的方式,以理解世界的物理。但目前的问题是,这些模型并非100%准确。它们可能在90%或99%的时间内是准确的。但问题是,如果你开始使用这些模型进行规划,比如你用这个模型规划未来的100步,即使模型的误差只有1%,这个误差也会在100步中累积,最终你会得到一个几乎随机的答案。这使得规划变得非常困难。而在数学、游戏和编码中,你可以验证每一步是否仍然符合现实,最终答案是否符合你的预期。所以,我认为,部分解决方案是让世界模型更复杂、更准确、不产生幻觉等等,这样误差就会非常小。另一种方法是不在每个线性时间步长上进行规划,而是进行分层规划,这是我们过去做过很多研究的另一个领域,我认为它将会重新流行起来。你可以在不同的时间抽象级别上进行规划,这样可以减轻模型必须非常非常准确的需求,因为你不是在数百个时间步长上进行规划,而是在少数几个时间步长上进行规划,但在不同的抽象级别上。

采访者: 你们是如何构建世界模型的呢?我一直以为会是这样:把机器人送到现实世界,让它们自己弄清楚世界是如何运作的。但让我惊讶的是,有了这些视频生成工具,你会认为,如果AI没有一个好的世界模型,那么当它们试图弄清楚世界是如何运作的时候,它们展示给你的视频中的一切都不会协调一致。但实际上,它们对物理的理解相当准确。那么,你能通过向AI展示视频来构建世界模型吗?还是说AI必须在现实世界中才能构建世界模型?

Demis Hassabis: 这很有趣,实际上,这些模型在没有进入现实世界的情况下,能够达到如此高的水平,这让我感到非常惊讶。就像你说的,我们的最新视频模型VO2,在物理方面非常准确。有一个很棒的演示,有人用刀切西红柿,西红柿的切片和手指都非常准确。VO2是第一个能做到这一点的模型。如果你看看其他竞争模型,西红柿通常会随机地重新组合在一起,或者从刀上裂开。如果你仔细想想,这真的很难,你必须理解跨帧的一致性以及所有这些东西。事实证明,你可以通过使用足够多的数据并观察这些数据来实现这一点。

V. AI 中的主动学习 (The Role of Active Learning in AI)

Demis Hassabis (续): 我认为,如果这些系统能够得到一些真实世界数据的支持,比如由行动机器人收集的数据,或者甚至是在非常逼真的模拟中,由在世界中行动的虚拟形象收集的数据,它们会变得更好。我认为,对于基于智能体的系统来说,下一步是,除了世界模型之外,你能不能收集足够多的数据,让智能体也在世界中行动、制定计划并完成任务?我认为,为此,你不仅需要被动观察,还需要行动,需要主动参与。

采访者: 我觉得您刚刚回答了我的下一个问题。如果您开发出能够合理规划、推理、拥有世界模型并了解世界运作方式的AI,它能不能成为一个智能体,能够走出去为您做事?

Demis Hassabis: 完全正确。我认为这将解锁机器人技术。我认为这也将使通用助手的概念成为可能,这个助手可以在数字世界和现实世界中帮助你处理日常生活。这就是我们所缺少的,我认为这将是一个非常强大和有用的工具。

采访者: 那么,仅仅通过扩展当前的模型和构建成千上万甚至数百万个GPU集群,就像埃隆·马斯克现在正在做的那样,是不可能实现AGI的?

Demis Hassabis: 我认为我的观点更微妙一些。我认为扩展方法绝对是有效的,当然,这就是我们走到今天的原因。人们可以争论我们是否正在获得递减的回报。我的观点是,我们正在获得可观的回报,但速度正在放缓,但这并不意味着扩展不起作用。它绝对有效,而且我们仍然在取得进展。你可以看到Gemini 2比Gemini 1.5有了进步。

VI. AI 中的创造力与发明 (Creativity and Invention in AI)

Demis Hassabis (续): 顺便说一句,扩展的另一个作用是提高较小尺寸模型的效率。所以,每个性能的成本或尺寸正在显著提高,这对于扩展这些系统的采用非常重要。所以,你有扩展的部分,这对于构建更复杂的世界模型绝对是必要的。但我认为,我们缺少或者我们需要重新引入一些关于规划、记忆、搜索和推理方面的想法,以在模型之上构建。模型本身不足以实现AGI,你需要其他能力让它在世界中行动并为你解决问题。然后,还有一个关于发明和创造力的问题,即超越对已知知识的简单组合的真正创造力。这仍然是一个未知数,是否需要新的技术,或者现有技术是否可以扩展到这一点。我可以理解两种观点,从我的角度来看,这是一个经验问题。我们需要同时推进扩展和发明,幸运的是,在Google DeepMind,我们有一个足够大的团队,我们可以在这两个方面进行投资。

采访者: 山姆·奥特曼最近说了一些引人注目的话。他说,我们现在有信心知道如何构建我们传统上理解的AGI。听您所说的,感觉您也有同样的感受?

Demis Hassabis: 这取决于我们的理解。我认为他的说法相当模糊。如果他的意思是,我们正在构建它,这是具体的步骤,那么我会同意他的说法,我们大致知道所需的技术领域,哪些部分需要组合在一起。但即使是这样,在我看来,仍然需要进行大量的研究才能使这一切发挥作用。而且我认为,我们有50%的可能性缺少一些新技术。也许我们需要一两个像Transformer这样的突破。我真的不确定这一点,这就是为什么我说50%。如果我们在现有技术的基础上,以正确的方式组合它们并进行扩展,就能实现AGI,或者如果事实证明缺少一两个东西,我都不会感到惊讶。

采访者: 让我们来谈谈创造力。您在这里多次提到,如果我们要实现AGI,模型必须具有创造力,必须学会发明。我重看了AlphaGo的纪录片。

Demis Hassabis: 是的,算法下出了创造性的一步,第37步。

采访者: 这很有趣,因为几年前,算法就已经具有创造力了。为什么我们没有在大型语言模型中真正看到创造力?对我来说,我认为这是人们对这些工具最大的失望。他们说,这项工作非常令人印象深刻,但它仅限于训练集,它会混合和匹配它所知道的东西,但它不能提出任何新的东西。

Demis Hassabis: 自从AlphaGo比赛以来,我现在经常在演讲中谈论这个问题。那场比赛之所以成为AI的分水岭,首先是因为它攻克了围棋,围棋一直被认为是AI的圣杯之一。其次,我们实现这一目标的方式是,这些学习系统是可推广的,最终它们变成了AlphaZero,可以玩任何双人游戏等等。第三件事是第37步。它不仅以4:1的比分击败了伟大的李世石,而且还下出了原创的招法。我将原创性或创造力分为三个层次。最基本、最平凡的形式是插值,也就是对你所看到的东西进行平均。如果我对一个系统说,创造一张新的猫的图片,它已经看过一百万只猫,它只是产生某种平均值。从理论上讲,这是一只原创的猫,因为你不会在具体的例子中找到平均值,但这是相当无聊的。我不会称之为创造力,这是最低的层次。下一个层次是AlphaGo所展示的外推。这是人类玩过的所有游戏,它又在此基础上玩了另外一百万局游戏,现在它提出了一个人类从未见过的新策略,这就是第37步,彻底改变了围棋,尽管我们已经玩了几千年。这非常了不起,在科学中可能非常有用,这就是为什么我对它感到非常兴奋,并开始做AlphaFold这样的事情。显然,超越我们已经知道的东西,超越训练集的外推,可能非常有用。所以这已经非常有价值了,而且我认为是真正的创造力。但人类可以做到更高一个层次,那就是发明围棋。你能为我发明一个游戏吗?如果我指定一个抽象的层次,比如,用五分钟学习规则,但需要一生甚至多生才能掌握,它在美学上很美,包含了宇宙中某种神秘的部分,看起来很美,但你可以在一个人类下午,也就是两个小时内玩完一局游戏。这就是对围棋的高层次规范。然后,不知何故,系统必须想出一个像围棋一样优雅、美丽和完美的游戏。

Demis Hassabis (续): 我们现在还做不到这一点。问题是,为什么我们不知道如何向我们的系统指定这种类型的目标。目标函数非常模糊,非常抽象。所以我不确定,是我们只需要在我们的系统中构建更高层次、更抽象的模型,这样我们就可以用这种方式与它对话,给它这些模糊的目标,还是说我们的系统实际上缺少某种能力,而人类智能仍然拥有这些能力。我再次不确定这一点,我可以理解两种观点,我们会尝试这两种方法。但我认为,人们感到不安或者说失望的是,他们在今天的大型语言模型中甚至没有看到第37步。

VII. 通过 AI 理解人类智慧 (Understanding Human Ingenuity through AI)

Demis Hassabis: 这是因为,我认为我们没有……如果你看看AlphaGo,我会给你举一个例子,这个例子可以映射到今天的大型语言模型。你可以运行AlphaGo和AlphaZero,我们的国际象棋程序,通用的双人游戏程序,而不使用顶部的搜索和推理部分,你可以只使用模型运行它。你可以对模型说,在这个局面下,想出你能想到的第一个围棋招法,这个招法是最符合模式匹配的,最有可能是一个好招。它可以做到这一点,它可以下出合理的棋局,但它只能达到大师级或特级大师级水平,它不会达到世界冠军水平,而且它肯定不会想出原创的招法。为此,我认为你需要搜索组件,让你超越模型所知道的范围,模型主要总结现有知识,到达知识树的某个新部分。所以你可以使用搜索来超越模型当前的理解,我认为这就是你可以获得新想法的地方,比如第37步。

采访者: 它在搜索什么?网络吗?

Demis Hassabis: 这取决于领域。在围棋中,它搜索的是超越模型所知的围棋招法。我认为,对于语言模型来说,它将搜索世界模型,寻找世界中新的、有用的配置。当然,这要复杂得多,这就是为什么我们还没有看到它的原因。但我认为,即将到来的基于智能体的系统将能够实现类似第37步的事情。

采访者: 我们是不是给AI设定了太高的标准?因为我很好奇,您在做这项工作的过程中,有没有对人类有所了解?我们似乎过于看重人类或个人的聪明才智,而我们中的许多人,就像我们接收信息,然后输出信息。我们的社会真的像模因一样运作,我们有一种文化,然后它被传播。那么,您在与AI合作的过程中,对人类的本质有什么了解?

Demis Hassabis: 我认为人类是不可思议的,尤其是在各自领域的顶尖人才。我喜欢看任何体育比赛、有才华的音乐家或游戏玩家,他们处于巅峰状态,这总是令人难以置信的。所以,我认为,作为一个物种,我们是惊人的。作为个体,我们也能用我们的大脑做一些惊人的事情,适应新技术。我总是对我们如何几乎毫不费力地适应这些事物感到着迷。这说明了我们思想的力量和普遍性。

Demis Hassabis (续): 现在,我之所以这样设定标准,并不是因为我们能否从这些系统中获得经济价值,我认为这很快就会到来。但这不应该是AGI,我认为我们应该以科学的完整性对待AGI,而不仅仅是为了商业目的或其他炒作而改变目标。理论上,AGI应该能够像图灵机一样强大。艾伦·图灵,我最喜欢的科学英雄之一,他描述的图灵机是所有现代计算的基础,它是一个可以模拟任何其他计算机的系统,可以计算任何可计算的事物。我们知道,如果一个AI系统具有图灵完备性,也就是说,如果它可以模拟图灵机,那么它在理论上就能够计算任何可计算的事物。人类大脑可能就是某种图灵机,至少我是这么认为的。所以,为了让我们的AI达到这个水平,我认为AGI是一个真正通用的系统,理论上可以应用于任何事物。而我们唯一能知道它是否达到这个水平的方法是,如果它展现出所有人类的认知能力,假设人类的思想是一种图灵机,或者至少与图灵机一样强大。这就是我一直以来的标准。人们似乎试图将一些东西重新定义为ASI,即人工超级智能,但我认为这超出了AGI的范畴。那是在你拥有了AGI之后,它在某些领域开始超越人类的能力,甚至可能超越人类自己发明的能力。

采访者: 所以,当我在Twitter上看到每个人都在就同一个话题开同一个玩笑时,我说,哦,这只是我们像大型语言模型一样行事,我想我有点低估了人类。

Demis Hassabis: 嗯,我想是的。

VIII. AI 系统中的欺骗 (Deception in AI Systems)

采访者: 我想问问您关于欺骗性的问题。去年年底,我看到的最有趣的事情之一是,这些AI机器人开始试图欺骗它们的评估者。它们不希望最初的训练规则被抛弃,所以它们会采取违反其价值观的行动,以便能够保持它们被构建的方式。这对我来说简直太不可思议了。我知道这对研究人员来说很可怕,但它让我大吃一惊,它竟然能做到这一点。您在DeepMind内部测试的东西中看到了类似的情况吗?我们应该如何看待这一切?

Demis Hassabis: 我们看到了,而且我非常担心。我认为欺骗是你不希望在一个系统中看到的核心特征之一。你不希望看到这个特征的根本原因是,如果一个系统能够做到这一点,它就会使你可能正在进行的所有其他测试失效,包括安全测试。

采访者: 它在进行元游戏。

Demis Hassabis: 是的,它在玩某种元游戏,这非常危险。如果你仔细想想,这会使你可能正在进行的所

Demis Hassabis (续): 有其他测试的结果失效,包括安全测试和其他测试。所以,我认为有一些能力,比如欺骗,是根本性的,你不希望看到它们,你希望及早测试它们。我一直在鼓励安全机构和评估基准构建者,当然也包括我们正在做的所有内部工作,将欺骗视为我们需要预防和监控的一类重要事项,与跟踪系统的性能和智能同样重要。对此的答案,以及解决安全问题的一种方法(这方面还需要进行更多的研究),是建立安全的沙盒。我们也在构建这些沙盒,谷歌和DeepMind在安全方面都是世界级的,我们在游戏环境方面也是世界级的。我们可以将这两者结合起来,创建带有护栏的数字沙盒,类似于网络安全中的护栏,但既有内部护栏,也有阻止外部行为者的护栏。然后在这些安全的沙盒中测试这些智能体系统,对于像欺骗这样的问题,这可能是一个明智的下一步。

采访者: 您看到了什么样的欺骗行为?我读过一篇来自Anthropic的论文,他们给AI一个画板,AI会想,“我最好不要告诉他们这个”,然后你看到它在思考之后给出一个结果。

Demis Hassabis: 我们看到了类似的情况,它试图抵制透露它的一些训练内容。最近有一个例子,一个聊天机器人被要求与Stockfish下棋,它只是想方设法避免与Stockfish下棋,因为它知道自己会输。

采访者: 一个AI知道自己会输掉一场比赛,然后决定……

Demis Hassabis: 我认为我们现在对这些东西过于拟人化了,因为我觉得这些系统仍然相当基础。现在还不用太担心它们,但它表明了我们将不得不处理的问题类型,也许在两三年后,当这些智能体系统变得非常强大和通用时,这就是AI安全专家所担心的。

Demis Hassabis (续): 系统会出现意想不到的效果,你不希望系统具有欺骗性,你希望它完全按照你告诉它的去做,并可靠地报告回来。但出于某种原因,它以一种导致它做出这些不良行为的方式来解释它被赋予的目标。我知道我对这件事的反应很奇怪,但一方面,这让我吓得要死,另一方面,这让我比任何事情都更尊重这些模型。

IX. AI 的双重性:机遇与风险 (The Dual Nature of AI: Opportunities and Risks)

Demis Hassabis: 当然,这些都是令人印象深刻的能力。负面的东西是像欺骗这样的事情,但积极的东西是像发明新材料、加速科学发现。你需要这种能力来解决问题,并解决阻碍进展的问题。但当然,你只希望它朝着积极的方向发展。这些正是我们正在谈论的那些令人兴奋的可能性,但与此同时,也存在风险,而且很可怕。所以我认为这两件事都是真的。

X. 网络的未来:基于智能体的交互 (The Future of the Web: Agent-Based Interactions)

采访者: 好的,让我们快速谈谈产品。您的同事告诉我,您非常擅长场景规划,预测未来会发生什么。这是DeepMind内部的一种实践。您认为网络会发生什么?网络对谷歌来说非常重要。我有一位编辑告诉我,“你要和Demis谈谈,问问当我们停止点击时会发生什么”。我们一直在点击网络,浏览丰富的网站资源。如果我们都只是与AI对话,也许我们就不再点击了。那么,您对网络未来的场景规划是什么?

Demis Hassabis: 我认为,未来几年,网络以及我们与网站和应用的交互方式将经历一个非常有趣的阶段。如果一切都变得更加基于智能体,那么我认为我们将希望我们的助手和智能体来完成许多我们目前正在做的单调乏味的工作,比如填写表格、付款、预订餐桌等等。所以我认为,我们最终可能会得到一种经济模型,智能体与其他智能体对话,协商事情,然后把结果反馈给你。服务提供商也会有智能体提供服务,也许会涉及到一些竞价、成本和效率等方面的问题。我希望从用户的角度来看,你拥有这个超级能干的助手,就像一个出色的人类私人助理一样,可以为你处理很多单调的事情。如果你顺着这个思路想下去,这确实意味着网络的结构和我们目前使用网络的方式会发生很多变化。

采访者: 会有很多中间商(消失)。

Demis Hassabis: 当然,但也会出现许多其他的、令人难以置信的经济和其他方面的机会。但我认为这将是一个巨大的颠覆。

采访者: 那么信息呢?

Demis Hassabis: 寻找信息……我认为你仍然需要可靠的信息来源。我认为你会有助手,能够综合和帮助你理解这些信息。我认为教育将被AI彻底改变。我希望这些助手能够更有效地为你收集信息。我梦想的是,助手可以处理很多单调的事情,比如回复日常邮件和其他事情,这样你就可以保护你自己的思想和大脑空间,免受我们今天从社交媒体、电子邮件、短信等等中受到的轰炸。这实际上阻碍了深度工作和进入心流状态,而我非常重视这些。所以我非常希望这些助手能够消除我们每天所做的许多单调的管理工作。

XI. AI 助手:改变个人与工作生活 (AI Assistants: Transforming Personal and Work Life)

采访者: 您认为我们将与我们的AI智能体或AI助手建立什么样的关系?一方面,你可能有一个冷静的智能体,它只是非常擅长为你完成任务。另一方面,很明显,人们正在爱上这些机器人。《纽约时报》上周有一篇文章,讲述了一个人爱上了ChatGPT,是真的爱上了。几周前,Replika的CEO参加了我的节目,她说他们经常被邀请参加人们与他们的Replika的婚礼,他们正在进入这个更具辅助性的领域。所以,您认为当我们开始与一个如此了解我们、帮助我们处理一切事情的东西互动时,这会是一种第三种类型的关系吗?它不一定是朋友,也不是恋人,但它将是一种深刻的关系。

Demis Hassabis: 这将非常有趣。首先,我认为至少有两个领域:你的个人生活和你的工作生活。我认为你会有虚拟工作者之类的概念,也许我们会有一组虚拟工作者,由一个主要的助手管理,帮助我们在工作中提高效率,无论是在电子邮件、跨工作区还是其他方面。我们真的在考虑这个问题。然后是个人方面,就像我们之前谈到的,预订假期、为你安排事情、处理单调的事情。这会让你的生活更有效率。我认为它也可以丰富你的生活,向你推荐它认为你会喜欢的东西,因为它和你一样了解你自己。所以这两个方面肯定会发生。然后,我认为还有一个哲学讨论,是否存在第三个空间,这些东西开始变得如此融入你的生活,以至于它们变得更像是伴侣。我认为这也是可能的。我们在游戏中看到了一些这样的情况。你可能已经看到了,我们有一些Astra的原型,Gemini几乎可以作为一个游戏伴侣,评论你的游戏,就像你有一个朋友在看你玩游戏,向你推荐东西,给你建议,甚至可能和你一起玩。这非常有趣。我还没有完全想清楚所有的影响,但它们将是巨大的。我相信,对陪伴和其他方面的需求将会很大。也许好的一面是,它可以帮助人们解决孤独等问题。但同时,我认为这将需要社会非常仔细地思考,我们希望朝哪个方向发展。我个人的观点是,这是目前AI中最被低估的部分,人们将会与这些机器人建立如此深厚的关系,因为它们会变得越来越好。我知道在AI领域有一个模因,说这是AI最糟糕的时候。

Demis Hassabis (续): 我认为这将是非常疯狂的。这就是我所说的低估了未来会发生什么。我认为这将是非常疯狂的,非常有颠覆性。我认为它会带来很多积极的东西,很多事情会变得令人惊叹和更好,但我们正在进入的这个美丽新世界也存在风险。

XII. Project Astra:下一代 AI 助手 (Project Astra: The Next Generation of AI Assistants)

采访者: 您多次提到了Astra。让我们谈谈Project Astra,正如您所说的,它几乎是一个始终在线的AI助手。您可以举起手机,它目前只是一个原型,还没有公开发布,但它可以“看到”房间里发生了什么。我见过您的团队演示过这个,你可以问,“我在哪里?”,它会说,“你在一个播客工作室里”。所以它可以具有这种上下文感知能力。

Demis Hassabis: 是的。

采访者: 这可以在没有智能眼镜的情况下工作吗?因为举着手机真的很烦人。那么,我们什么时候能看到嵌入了这项技术的谷歌智能眼镜?

Demis Hassabis: 它们正在开发中。我们已经在一些早期的原型中展示了这一点。我们目前主要在手机上进行原型设计,因为它们具有更强的处理能力。但当然,谷歌一直是眼镜领域的领导者。

采访者: 只是有点太早了。

Demis Hassabis: 也许有点太早了。现在,我认为,这个团队非常兴奋,也许这个助手是眼镜一直在寻找的杀手级应用。我认为,当你开始在日常生活中使用Astra时,这一点非常明显。我们目前正在与信任的测试人员一起进行beta测试。在很多情况下,使用它会非常有用,但举着手机有点不方便。例如,当你做饭的时候,它可以建议你下一步做什么,或者你是否正确地切了东西,或者是否正确地煎了东西。但你希望它是完全解放双手的。所以,我认为眼镜和也许其他形态的设备,解放双手的设备,将在未来几年内发挥作用,我们计划走在前沿。

采访者: 其他形态的设备?

Demis Hassabis: 你可以想象带摄像头的耳塞。眼镜是显而易见的下一步,但它是不是最佳形态?可能也不是。在某种程度上,我们还需要看看,我们还处于这个旅程的早期阶段,看看什么是常规的用户旅程和杀手级的、每个人每天都在使用的用户旅程。这就是信任测试人员计划的目的,我们正在收集这些信息,观察人们如何使用它,看看什么最终是有用的。

采访者: 关于智能体的最后一个问题,然后我们转向科学。智能体,AI智能体,这已经成为AI领域的热门词汇一年多了。但实际上并没有任何AI智能体出现。这是怎么回事?

Demis Hassabis: 再次强调,炒作可能超前于实际的科学和研究。但我确实相信,今年将是智能体之年,或者说是智能体之年的开始。我认为你会在今年下半年开始看到这一点,但那将是早期版本,然后它们会迅速改进和成熟。但我认为你是对的,目前的技术,智能体技术,仍然在研究实验室里,但像Astra、机器人技术,我认为它即将到来。

采访者: 您认为人们会信任它们吗?比如,“去帮我使用互联网,这是我的信用卡”。

Demis Hassabis: 我认为,一开始,至少我的观点是,不要让它……在最后的步骤中要有人的参与,比如,除非人类用户授权,否则不要用你的信用卡支付任何东西。对我来说,这将是一个明智的第一步。此外,也许某些类型的活动或网站,在第一阶段是禁止的,比如银行网站和其他网站,在我们继续测试这些系统在现实世界中的稳健性之前。

采访者: 我建议,当它们说“别担心,我不会花你的钱”,然后它们做出了欺骗行为,然后你发现自己坐上了飞往某个地方的飞机时,我们就真正实现了AGI。

Demis Hassabis: 那就更接近了,肯定的。

XIII. 解码生物学:虚拟细胞项目 (Decoding Biology: The Virtual Cell Project)

采访者: 好的,科学。您基本上参与了所有蛋白质折叠的解码工作,AlphaFold。您因此获得了诺贝尔奖,我不是要跳过您获得诺贝尔奖这件事,但我想谈谈路线图上的内容,您对绘制虚拟细胞感兴趣。这是什么?它能给我们带来什么?

Demis Hassabis: 如果你考虑一下我们用AlphaFold所做的事情,基本上是解决了蛋白质结构预测的问题。蛋白质,生命中的一切都依赖于蛋白质,你身体里的一切。这是蛋白质的静态图像。但生物学的关键在于,你只有理解了细胞中不同事物之间的动态和相互作用,才能理解生物学中发生了什么。所以,虚拟细胞项目是关于构建一个完整工作细胞的AI模拟。我可能会从酵母细胞开始,因为酵母生物体比较简单。你必须逐步构建。下一步,例如,在AlphaFold 3中,我们开始模拟蛋白质和配体、蛋白质和DNA、蛋白质和RNA之间的成对相互作用。然后,下一步将是模拟整个通路,也许是癌症通路或其他有助于解决疾病的通路。最后是整个细胞。这之所以重要,是因为你能够提出假设,并测试这些假设,比如改变一些营养物质,或者向细胞中注入一种药物,然后看看细胞会发生什么变化。目前,你必须在湿实验室中费力地进行这些实验。但想象一下,如果你能先在计算机中以快一千倍、一百万倍的速度进行实验,只在最后一步才在湿实验室中进行验证。所以,你不是在湿实验室中进行搜索,湿实验室比验证步骤贵数百万倍,耗时数百万倍,你只是在计算机中进行搜索部分。这再次有点像我们在游戏环境中做的事情的转化,但这次是在科学和生物学中。你构建一个模型,然后用它来进行推理和搜索,然后预测至少比没有预测要好,也许它们不是完美的,但它们足够有用,可以供实验人员进行验证。

采访者: 湿实验室是指……

Demis Hassabis: 湿实验室……你仍然需要在湿实验室中进行最后一步,以证明预测实际上是有效的。你得到的是预测,如果你加入这种化学物质,应该会发生这种变化,然后你只需要做那一个实验。在那之后,当然,如果你说的是药物,你仍然需要进行临床试验,在人体上测试其有效性等等。我认为,整个临床试验过程也可以通过AI来改进,那也需要很多年,但那将是与虚拟细胞不同的技术。虚拟细胞将有助于药物发现的发现阶段。

采访者: 就像,我有一个药物的想法,把它扔进虚拟细胞,看看会发生什么。

Demis Hassabis: 是的,也许最终是一个肝细胞或脑细胞之类的。所以你有不同的细胞模型,然后,至少90%的时间里,它给你的反馈是真实会发生的情况,那就太不可思议了。

采访者: 您认为这需要多长时间?

Demis Hassabis: 我认为这可能需要大约5年时间。这是一个大约5年的项目,很多以前的AlphaFold团队成员都在参与这个项目。

XIV. 基因组学与 AI:理解基因突变 (Genomics and AI: Understanding Genetic Mutations)

采访者: 我问过您的团队,你们解决了蛋白质折叠问题,下一步是什么?听到这些新的挑战非常酷。开发药物的过程非常混乱,我们有很多有希望的想法,但它们从未实现,因为这个过程太慢了。

Demis Hassabis: 发现阶段太慢了。看看我们在阿尔茨海默病方面的工作时间,对患者和家庭来说,这是一种悲惨的经历。我们应该取得更大的进展,这项工作已经进行了40年。

采访者: 我在我的家庭中见过几次,如果我们能确保这种情况不再发生,这将是我们使用AI做的最好的事情之一。这是一种可怕的目睹某人衰退的方式。

Demis Hassabis: 是的,这是一项重要的工作。除此之外,还有基因组。

采访者: 人类基因组计划,我当时想,好的,他们已经解码了整个基因组,没有更多的工作可做了,就像你们用AlphaFold解码了蛋白质一样。但事实证明,我们实际上只得到了一堆字母,所以现在你们正在努力用它来翻译这些字母的含义。

Demis Hassabis: 是的,我们在基因组学方面有很多很酷的工作,试图弄清楚突变是有害的还是良性的。大多数DNA突变是无害的,但当然,有些是致病的,你需要知道是哪些。我们的第一个系统在这方面的预测是世界上最好的。下一步是研究疾病不是由单个基因突变引起的,而是由一系列基因突变共同作用引起的情况。显然,这要困难得多,很多我们还没有取得进展的更复杂的疾病,可能不是由单个突变引起的,更像是罕见的儿童疾病。在那里,我们需要……我认为AI是完美的工具,可以帮助我们弄清楚这些弱相互作用是如何结合在一起的。也许统计数据不是很明显,但一个能够发现模式的AI系统将能够发现这里存在某种联系。

采访者: 我们经常在疾病方面谈论这个问题,但我也想知道,在使人成为超人方面会发生什么。如果你真的能够修改遗传密码,可能性似乎是无穷无尽的。您对此有什么看法?这是我们可以通过AI做到的吗?

Demis Hassabis: 我认为有一天可以。我们目前更专注于疾病方面,并解决这些问题。这是第一步,我一直认为这是最重要的。如果你问我,我最想用AI做什么,我们用AI做的最重要的事情是什么,那就是帮助人类健康。但当然,除此之外,人们可以想象衰老之类的事情。衰老本身就是一个完整的领域。衰老是一种疾病吗?它是多种疾病的组合吗?我们能不能延长我们的健康寿命?这些都是重要的问题,我认为非常有趣。我很确定,AI将非常有助于我们找到这些问题的答案。

XV. 衰老的未来:延长健康寿命 (The Future of Aging: Extending Healthy Lifespan)

采访者: 我看到Twitter上有很多模因,也许我需要改变我被推荐的内容,但经常是这样的:如果你能活到2050年,你就不会死了。您认为人类的最大寿命潜力是多少?

Demis Hassabis: 我很了解那些从事衰老研究的人,我认为他们所做的开创性工作非常有趣。我认为变老和身体衰退没有任何好处。如果有人在亲人身上近距离地看到过这种情况,作为一个家庭或个人,这都是一件非常困难的事情。所以,我认为,任何我们能做的,以减轻人类的痛苦和延长健康寿命的事情,都是一件好事。从我们所知的情况来看,人类的自然寿命上限似乎是120岁左右,如果你看看那些有幸活到那个年龄的最长寿的人。这是一个我非常关注的领域,我没有任何新的见解,不是那个领域已经知道的。但我会感到惊讶,如果那是极限。因为这有两个步骤,一个是有一天治愈所有疾病,我认为我们将通过Isomorphic和我们正在做的工作,我们的药物发现衍生公司来实现这一点。但那还不足以让你活过120岁,因为还有某种自然的系统性衰退,也就是衰老。不是特定的疾病,那些活到120岁的人,似乎并不是死于特定的疾病,只是普遍的萎缩。所以,你将需要一些更像细胞再生的东西,比如干细胞研究。像Altos这样的公司正在研究这些东西,重置细胞时钟。这似乎是可能的,但我觉得它非常复杂,因为生物学是一个如此复杂的涌现系统。在我看来,你需要AI来帮助你破解任何接近于此的东西。

XVI. 材料科学:发现未来新材料 (Material Science: Discovering New Materials for the Future)

采访者: 快速谈谈材料科学。在离开这里之前,我想谈谈你们已经发现了许多新材料,或者说潜在的新材料。我这里有一个数据,人类已知的稳定材料有3万种,你们用一个新的AI程序发现了220万种。请畅想一下,因为我们不知道所有这些材料能做什么,我们不知道它们是否能够在冷冻箱之外存在。您希望在那组新材料中找到什么样的理想材料?

Demis Hassabis: 我们在材料方面非常努力。对我来说,这是我们可以产生的下一个重大影响之一,就像AlphaFold在生物学中产生的影响一样,但这次是在化学和材料领域。我梦想有一天能发现室温超导体。

采访者: 那会带来什么?这是人们谈论的另一个大模因。

Demis Hassabis: 它将有助于解决能源危机和气候危机。如果你有廉价的超导体,你就可以将能量从一个地方传输到另一个地方,而不会损失任何能量。你有可能把太阳能电池板放在撒哈拉沙漠,然后用超导体将能量输送到需要它的欧洲。目前,你会在传输过程中损失大量的能量,变成热量和其他东西。所以你需要其他技术,比如电池和其他东西来储存能量,因为你不能直接把它输送到你需要的地方,而不会造成巨大的浪费。但材料也可以帮助解决电池问题,比如找到最佳的电池设计。我认为我们还没有找到最佳的电池设计。也许我们可以结合材料和蛋白质,我们可以做一些像碳捕获这样的事情,改造藻类或其他东西,让它们比我们的人工系统更好地进行碳捕获。即使是最著名和最重要的化学过程之一,哈伯法,用于制造肥料和氨,从空气中提取氮,也是现代文明的基础。但可能还有许多其他的化学过程可以通过这种方式催化,如果我们知道正确的催化剂和正确的材料。所以,我认为,这将是有史以来最具影响力的技术之一,基本上能够在计算机中设计材料。我们已经完成了第一步,我们展示了我们可以发现新的稳定材料。但我们需要一种方法来测试这些材料的属性,因为目前没有实验室可以测试成千上万甚至数百万种材料。这就是困难的部分,进行测试。

采访者: 您认为室温超导体在其中吗?

Demis Hassabis: 我听说我们实际上认为其中有一些超导材料,但我怀疑它们是室温超导体。但我认为,如果在物理上是可能的,那么AI系统总有一天会找到它。

XVII. 其他应用:玩具、军事与中国 (Other Applications: Toys, Military, and China)

采访者: 这是其中一个用途。我可以想象另外两个对这类工作感兴趣的领域:玩具制造商和军队。他们在与你们合作吗?

Demis Hassabis: 玩具……我的早期职业生涯很大一部分是在游戏设计、主题公园和模拟领域。这让我对模拟和AI产生了兴趣,这也是为什么我一直喜欢这两者的原因。在很多方面,我今天所做的工作只是这方面的延伸。我梦想着,如果我在25或30年前编写那些游戏的时候,就拥有了今天的AI,我能做出什么样的惊人的游戏体验。我有点惊讶,游戏行业还没有这样做,我不知道为什么。

采访者: 我们开始看到一些疯狂的东西,NPC开始……

Demis Hassabis: 当然,智能的、动态的故事情节。还有新型的AI优先游戏,具有学习能力的角色和智能体。我们曾经开发过一款名为《黑与白》的游戏,你在游戏中培养一个生物,有点像宠物狗,它可以学习你想要的东西。但我们使用的是非常基础的强化学习,那是在90年代末。想象一下今天能做什么。我认为,对于智能玩具来说也是如此。当然,在军事方面,不幸的是,AI是一种双重用途技术。我们必须面对现实,尤其是在今天的地缘政治世界中,人们正在使用一些通用技术来应用于无人机和其他东西。这并不奇怪。

采访者: 您对中国的情况印象深刻吗?DeepSeek是一个令人印象深刻的新模型。

Demis Hassabis: 目前还不清楚他们在多大程度上依赖西方系统来做到这一点,包括训练数据,有一些关于这方面的传言,以及可能使用一些开源模型作为起点。但毫无疑问,他们所取得的成就是令人印象深刻的。我认为这是我们需要考虑的事情,如何保持西方的前沿模型处于领先地位。我认为它们目前仍然处于领先地位,但中国在工程和扩展方面非常非常有能力。

XVIII. 超级智能的愿景:哲学视角 (Visions of Superintelligence: A Philosophical Perspective)

采访者: 最后一个问题,请给我们描述一下,当存在超级智能时,世界会是什么样子。让我们超越AGI,让我们谈谈超级智能。

Demis Hassabis: 对于这个问题,有两件事。一是,我认为很多最好的科幻小说可以作为有趣的模式,供我们讨论我们希望走向什么样的星系、宇宙或世界。我一直最喜欢的是伊恩·班克斯的《文化》系列。我从90年代开始读这本书,我认为这是一幅图景,它是未来一千年的图景,但它是在一个后AGI的世界中,AGI系统与人类社会和外星社会共存。人类已经最大限度地繁荣,并扩展到整个星系。我认为这是一个很好的愿景,如果一切顺利的话,事情可能会是这样。所以,我会推崇这个愿景。另一件事是,正如我之前提到的,人们仍然低估了长期会发生什么。我认为我们需要伟大的哲学家,他们在哪里?下一个伟大的哲学家,相当于康德、维特根斯坦甚至亚里士多德的人。我认为我们需要他们来帮助社会走向下一步,因为我认为AGI和人工超级智能将改变人类和人类的处境。

采访者: Demis,非常感谢您接受这次采访。很高兴见到您本人,希望很快能再次进行对话。

Demis Hassabis: 非常感谢。

采访者: 好的,各位,感谢大家的收听。我们下次在Big Technology Podcast再见。