内容概要
在本季 Google DeepMind 播客的最终集中,Hannah Fry 教授与 DeepMind 联合创始人兼 CEO Demis Hassabis 进行了年度深度对谈。除了探讨 Gemini 3 等近期发布的产品外,他们还展望了将定义未来十年的科学前沿问题,包括通往通用人工智能(AGI)的路径、世界模型(World Models)与模拟(Simulation)的潜力,以及在激烈的商业竞争中保持科学严谨性的关键平衡。
目录
-
简介
-
2025 年的进展
-
参差不齐的智能
-
数学版的 AlphaGo?
-
科学与商业化
-
扩展定律(Scaling)
-
Genie 与模拟
-
模拟中的进化
-
AI 泡沫
-
构建合乎道德的 AI
-
通用人工智能(AGI)
-
图灵机
-
领导者的感受
简介
Demis Hassabis: 你可以认为我们实际上是将 50% 的精力用于扩展(Scaling),50% 的精力用于创新。
我敢打赌,要实现通用人工智能(AGI),这两者缺一不可。我一直有这样的感觉:如果我们构建出 AGI,然后将其作为思维的模拟,再将其与真实的人类思维进行比较,我们就会看到差异所在,以及人类思维中可能存在的特殊之处和保留下来的东西。
对吧?也许是创造力,也许是情感,也许是做梦。关于意识有很多说法,关于什么可以计算、什么不可计算也有很多假设。这又回到了图灵机的问题:图灵机的极限是什么?目前还没有发现任何在现有计算框架内无法完成的事情……或者换个说法,目前还没在宇宙中发现任何不可计算的东西。到目前为止。
Hannah Fry: 欢迎收听 Google DeepMind 播客,我是 Hannah Fry 教授。对 AI 来说,这是非凡的一年。
我们已经看到重心从大型语言模型(Large Language Models)转移到了代理式 AI(Agentic AI)。我们见证了 AI 加速药物发现,以及多模态模型被集成到机器人和无人驾驶汽车中。我们在本播客中已经详细探讨过这些话题,但作为今年的最后一期,我们希望采取更宏观的视角。超越头条新闻和产品发布,去思考一个更大的问题:这一切实际上将向何处去?
定义下一阶段的科学和技术问题是什么?有一位花了很多时间思考这个问题的人,他就是 Google DeepMind 的 CEO 兼联合创始人 Demis。欢迎回到播客,Demis。
Demis Hassabis: 很高兴回来。
2025 年的进展
Hannah Fry: 过去一年发生了很多事情。是的。你认为最大的转变是什么?
Demis Hassabis: 哇。我是说,发生的事情太多了。正如你所说,感觉我们把十年的进展压缩在了一年里。确实发生了很多事。对我们来说,模型的进步显而易见,我们刚刚发布了 Gemini 3,如果你对我们很满意的话。多模态能力的提升,所有这些都在顺利推进。我想今年夏天让我非常兴奋的一件事是世界模型(World Models)的进步。我相信我们待会儿会谈到这个。
Hannah Fry: 当然,如果你不介意,我们稍后会详细讨论这些内容。我记得第一次在这个播客采访你时,你谈到了“根节点问题”(Root Node Problems),即利用 AI 解锁下游效益的想法。不得不说,你很好地兑现了承诺。你想给我们更新一下这些方面的进展吗?哪些事情近在咫尺,哪些已经解决或接近解决了?
Demis Hassabis: 好的。当然,最大的证明就是 AlphaFold。很难想象 AlphaFold——至少是 AlphaFold 2——向世界发布已经快五年了。这证明了解决这类根节点问题是可能的。我们现在正在探索其他所有可能的领域。
我认为材料科学很有前景,我很想实现室温超导,还有更好的电池等等。我认为这些都在计划之中。各种更好的材料。我们也在研究核聚变(Fusion),因为刚宣布了一个新的合作伙伴关系。
Hannah Fry: 核聚变?
Demis Hassabis: 是的,我们刚刚宣布了与 Commonwealth Fusion 的深度合作……我们之前就有合作,但现在更深入了。我认为他们可能是致力于传统托卡马克(Tokamak)反应堆的最佳初创公司。他们可能最接近实现可行的方案。我们想帮助加速这一进程。比如帮助他们在磁体中控制等离子体,甚至可能涉及一些材料设计。这非常令人兴奋。
此外,我们也在与量子计算的同事合作,Google 的量子 AI 团队在做惊人的工作,我们利用机器学习帮助他们处理纠错码(Error Correction Codes),也许有一天他们也会反过来帮助我们。
Hannah Fry: 这太完美了。特别是核聚变,如果能解锁这一技术,对世界的影响将是巨大的。
Demis Hassabis: 是的,核聚变一直是圣杯。当然,我认为太阳能也非常有前景,这实际上就是利用天空中的核聚变反应堆。但是,如果我们能拥有模块化的核聚变反应堆,这种几乎无限、可再生、清洁能源的承诺显然会改变一切。这就是圣杯。当然,这也是我们帮助解决气候问题的方式之一。
Hannah Fry: 如果我们能做到这一点,很多现存的问题似乎都会迎刃而解……
Demis Hassabis: 绝对的。这开启了许多可能性……这也是为什么我们将它视为根节点。当然,它直接有助于解决能源、污染等问题以及气候危机。但同时,如果能源真的可再生、清洁且超级便宜甚至几乎免费,那么许多其他事情也会变得可行。比如水资源获取,因为我们可以在任何地方建造海水淡化厂。甚至制造火箭燃料。
你知道,海水里含有大量的氢和氧。那基本上就是火箭燃料,只是将它们分离需要大量能量。但如果能源便宜、可再生且清洁,为什么不这样做呢?你可以 24/7 全天候生产。
参差不齐的智能
Hannah Fry: 你也看到应用于数学领域的 AI 发生了很大变化,对吧?它们在国际数学奥林匹克竞赛中赢得奖牌,但同时,这些模型在高中数学题上却会犯非常低级的错误。为什么会有这种矛盾?
Demis Hassabis: 是的,这很有趣。这可能是最迷人的事情之一,也是我们在未达到 AGI 之前需要解决的关键问题之一。正如你所说,我们在其他小组取得了很大成功,比如在国际数学奥林匹克竞赛中获得金牌。你看那些题目,那是世界上只有顶尖学生才能做出来的超级难题。而在另一方面,如果你以某种方式提问——我们在日常生活中测试聊天机器人时都见过——它们可能会在逻辑问题上犯一些相当琐碎的错误。令人惊讶的是,它们还不能真正下好一盘国际象棋。
所以这些系统在一致性方面仍然缺少一些东西。我认为这是人们对通用智能或 AGI 系统的期望之一,即它在各个方面都应该是一致的。所以有时人们称之为“参差不齐的智能”(Jagged Intelligence)。它们在某些方面非常出色,甚至达到博士水平,但在其他方面甚至不如高中水平。所以这些系统的表现仍然非常不均衡。它们在某些维度上非常令人印象深刻,但在其他维度上仍然相当基础。
我们必须缩小这些差距。至于原因,有各种理论。根据情况不同,甚至可能与图像被感知和标记化(Tokenized)的方式有关。所以有时它甚至没有获取到所有的字母……当你数单词中的字母时,它有时会出错,但这可能是因为它并没有“看到”每一个单独的字母。所以有些问题有不同的原因,每一个都可以被修复,然后看看还剩下什么问题。
但我认为一致性很关键。另一件事是推理和思考。我们现在的系统能够在推理(Inference)阶段花更多时间思考,这让它们能更好地输出答案。但在是否有效地利用这些思考时间方面,比如利用工具进行双重检查,目前还不算超级一致。我认为我们在路上了,但也可能只走到了一半。
数学版的 AlphaGo?
Hannah Fry: 我也想到了 AlphaGo 和 AlphaZero 的故事,你们去掉了所有的人类经验,发现模型反而进步了。在你创建的模型中,是否存在科学或数学版本的这种现象?
Demis Hassabis: 我认为我们今天试图构建的更像 AlphaGo。实际上,这些大语言模型、基础模型是从所有人类知识开始的——你知道,我们放在互联网上的几乎所有东西——并将这些知识压缩成某种有用的工件,可以从中查询和归纳。
但我确实认为,要在其之上拥有这种搜索或思考能力,我们仍处于早期阶段。就像 AlphaGo 必须利用那个模型来引导有用的推理路径、规划思路,然后在那个时间点得出最佳解决方案。我不觉得我们目前受到人类知识极限(比如互联网)的限制。我认为目前的主要问题是,我们还不知道如何像使用 AlphaGo 那样,完全可靠地使用这些系统。
当然,AlphaGo 更容易,因为它只是一个游戏。一旦有了 AlphaGo,你就可以像我们做 Alpha 系列一样回过头来做一个 AlphaZero,让它开始自我发现知识。我认为那将是下一步,但这显然更难。所以我认为最好先尝试创建第一步,即类似 AlphaGo 的系统,然后再考虑类似 AlphaZero 的系统。
但这也是今天系统缺失的东西之一,即在线学习和持续学习的能力。我们训练这些系统,平衡它们,进行后训练(Post-train),然后发布到世界上。但它们不会像我们一样在现实世界中持续学习。我认为这是这些系统在通往 AGI 之前所需的另一个关键缺失部分。
科学与商业化
Hannah Fry: 关于所有这些缺失的部分,我知道目前有一场发布商业产品的巨大竞赛,但我也知道 Google DeepMind 的根基在于科学研究。我最近看到你说过一句话:“如果我也能如愿以偿,我们会让 AI 在实验室里待更久,做更多像 AlphaFold 这样的事情,也许治愈癌症之类的。”你认为没有走那条更慢的路,我们是否失去了什么?
Demis Hassabis: 我想我们既有失去也有得到。我觉得那会是更纯粹的科学方法。至少那是 15 到 20 年前我最初的计划,当时几乎没人研究 AI。我们要创办 DeepMind 时,人们觉得这是件疯狂的事。但我们坚信它。当时的想法是,如果我们取得进展,我们将继续逐步构建 AGI,非常小心地对待每一步及其安全方面,分析系统在做什么等等。
但在此期间,你不必等到 AGI 到来才让它发挥作用。你可以将技术分流,用于对社会真正有益的方面,即推进科学和医学。这正是我们在 AlphaFold 上所做的。它本身不是一个基础模型或通用模型,但它使用了相同的技术,如 Transformer 等,然后将其与该领域的特定内容相结合。
所以我设想在实验室致力于 AGI 轨道的同时,会完成一大堆这样的事情——就像我们发布 AlphaFold 一样,确实去做治愈癌症之类的事。现在事实证明,大规模聊天机器人是可能的,人们觉得它们很有用,然后它们演变成了基础模型,不仅能聊天和处理文本(比如 Gemini),还能处理图像、视频等各种内容。这在商业和产品方面也非常成功。
我也很喜欢这一点。我一直梦想拥有终极助手,能在日常生活中帮助你,让你更高效,甚至保护你的大脑空间免受干扰,让你能专注并进入心流状态。因为今天的社交媒体充满了噪音。我认为 AI 实际上可以帮助我们解决这个问题。所以我觉得这很好。
但这确实造成了一种疯狂的竞争状态,许多商业机构甚至国家都在争先恐后地改进和超越彼此。这使得在进行严格科学研究的同时保持平衡变得困难。我们试图两者兼顾,我认为我们掌握了这种平衡。另一方面,这种发生方式也有很多优点,当然有更多的资源进入该领域,这肯定加速了进展。
而且,有趣的是,公众实际上只落后最前沿技术几个月就能使用到它们。所以每个人都有机会亲自感受 AI 的未来。我认为这是好事,政府也能更好地理解这一点。
扩展定律(Scaling)
Hannah Fry: 奇怪的是,去年这个时候还有很多关于扩展定律最终会撞墙、我们会耗尽数据的讨论。然而我们现在录制节目时,Gemini 3 刚刚发布,并在各种基准测试中处于领先地位。这是怎么做到的?扩展定律撞墙的问题难道不存在吗?
Demis Hassabis: 我想很多人都这么认为,尤其是当其他公司的进展似乎放缓时。但我认为我们从未真正看到那堵墙。我想说的是,也许存在收益递减(Diminishing Returns),当我说这话时,人们只想到没有回报了,是 0 或 1,是指数级还是渐近线。不,实际上这两种状态之间还有很大的空间。我认为我们就处于其间。
所以,这不像在非常早期的日子——三四年前——那样,每次发布新迭代,基准性能都翻倍。但正如我们在 Gemini 3 中看到的,你仍然获得了显著的改进,这非常值得投资。在这个方面我们没有看到放缓。
确实存在诸如可用数据是否耗尽的问题,但有办法解决。比如合成数据(Synthetic Data),让系统开始生成自己的数据,特别是在编码和数学等领域,你可以验证答案。在某种意义上,你可以产生无限的数据。所有这些都是研究问题。
我认为这正是我们一直以来的优势,我们一直坚持研究优先,我认为我们一直拥有最广度和深度的研究团队。回顾过去十年的进步,无论是 Transformer 还是 AlphaZero,都是出自 Google 或 DeepMind。所以我一直说,如果还需要更多科学创新,我会支持我们成为实现这些创新的地方,就像我们在过去 15 年里取得许多重大突破一样。
这正是正在发生的事情。实际上我很喜欢挑战变得更难,因为那时你不仅需要世界级的工程能力——这已经够难了——还需要结合世界级的研究和科学能力,这正是我们的专长。除此之外,我们还拥有世界级基础设施的优势,比如我们长期大量投资的 TPU 等。这这种组合使我们既能处于创新的前沿,又能兼顾扩展部分。
实际上,你可以认为我们将 50% 的精力用于扩展,50% 的精力用于创新。我打赌要实现 AGI,这两者都需要。
Hannah Fry: 即便是像 Gemini 3 这样出色的模型,我们仍然看到幻觉(Hallucinations)的问题。有一个指标说,有些时候它应该拒绝回答,但它仍然给出了答案。能不能像 AlphaFold 那样,让 Gemini 给出一个置信度分数?
Demis Hassabis: 是的,我想是可以的。我认为我们需要这个。这也是缺失的部分之一。我觉得我们很接近了。模型越好,它们对自己知道什么就越清楚,如果这说得通的话。我们需要让它们能以某种方式进行内省,或者做更多的思考,真正意识到它们不确定,然后我们需要找出一种训练方法,让它能输出这种不确定性作为合理的答案。
我们正在做得更好,但有时它仍然强迫自己回答不该回答的问题。这就会导致幻觉。目前很多幻觉都属于这种类型。这是一个必须解决的缺失环节。你是对的,我们在 AlphaFold 中解决了这个问题,但在那里显然局限性更大。
Hannah Fry: 因为在后台可能有某种关于下一个 Token 的概率度量?
Demis Hassabis: 是的,那是关于下一个 Token 的,这正是它的工作原理。但这并不能告诉你整体层面的置信度,即你对整个事实或整个陈述有多大把握。我认为这就是为什么我们需要利用思考步骤和规划步骤来回顾刚才输出的内容。目前这有点像和一个处在糟糕日子里的人说话,他们只是把脑子里想到的第一件事说出来。
大多数时候这没问题。但有时遇到很难的事情,你会希望停下来,暂停片刻,回顾你要说的话并进行调整。也许现在世界上这种情况越来越少了,但这仍然是更好的交流方式。你可以这样理解,这些模型需要在这方面做得更好。
Genie 与模拟
Hannah Fry: 我真的很想和你谈谈模拟世界以及把智能体(Agents)放入其中,因为我们今天早些时候和你的 Genie 团队聊过。告诉我为什么你在乎模拟?世界模型能做到哪些语言模型做不到的事?
Demis Hassabis: 除了 AI 之外,世界模型和模拟可能是我最长久的热情所在。当然,在像 Genie 这样的最新作品中,这一切都融合在了一起。我认为语言模型能够理解关于世界的很多东西,实际上比我们预期的要多,因为语言可能比我们想象的更丰富,包含的世界信息比语言学家想象的还要多。
但在世界的空间动态、空间意识以及我们所处的物理环境中,仍有许多东西很难用语言描述,通常也不会在语料库中描述。这很多都与从在线经验中学习有关。有很多东西你无法真正描述,你必须去体验它。比如传感器数据很难用语言表达,无论是运动角度还是气味。
我认为如果我们要让机器人技术发挥作用,或者想要一个能在日常生活中——也许通过眼镜或手机——不仅仅是在电脑上帮助你的通用助手,你就需要这种对世界的理解。世界模型是其中的核心。我们所说的世界模型,是指这种理解世界力学因果关系的模式。
也就是直觉物理学(Intuitive Physics)。事物如何移动,如何表现。我们现在在视频模型中看到了很多这样的东西。如何测试你是否有这种理解?如果你能生成逼真的世界,那么在某种意义上你一定理解了,系统一定封装了世界的许多力学机制。这就是为什么 Genie 和 Veo 这样的视频模型和交互式世界模型令人印象深刻,也是证明我们拥有广义模型的重要步骤。
希望在某个时候我们可以将其应用于机器人和通用助手。当然,我最喜欢的一件事——我肯定会在某个时候做——是将其重新应用回游戏和游戏模拟中,创造终极游戏。这也许一直是我所有计划背后的潜意识目标。
Hannah Fry: 没错,一直都是。那科学领域呢?你能在那个领域使用它吗?
Demis Hassabis: 是的,你可以。对于科学上复杂的领域建立模型,无论是原子层面的材料、生物学,还是一些物理现象如天气。理解这些系统的一种方法是从原始数据中学习这些系统的模拟。比如你有关于天气的原始数据,然后你有一个模型可以学习这些动态,并比暴力计算更有效地重建这些动态。
所以我认为模拟和世界模型有巨大的潜力,也许是针对科学和数学方面的专用模型。
Hannah Fry: 你也可以把一个智能体扔进那个模拟世界里,对吧?
Demis Hassabis: 是的。
Hannah Fry: 你的 Genie 3 团队有一句非常可爱的话:“几乎没有任何重大发明是以该发明为前提而被制造出来的。”他们谈到将智能体放入这些模拟环境中,让好奇心成为它们的主要动力,对吧?
Demis Hassabis: 这也是世界模型另一个非常令人兴奋的用途。我们还有另一个项目叫 SIMA。我们刚刚发布了 SIMA 2(Simulated Agents),你有一个化身或智能体,把它放入虚拟世界。它可以是一个普通的商业游戏,或者像《无人深空》那样非常复杂的开放世界太空游戏。因为底层是 Gemini,你可以直接和智能体交谈并给它任务。
然后我们想,如果我们把 Genie 接入 SIMA,把一个 SIMA 智能体放入另一个正在实时创造世界的 AI 中会很有趣。所以现在这两个 AI 在彼此的“脑海”中互动。SIMA 试图在这个世界导航,而对 Genie 来说,那只是一个玩家,它不在乎那是另一个 AI。它只是围绕 SIMA 试图做的事情生成世界。
看到它们在一起互动真是太神奇了。我认为这可能是一个有趣的训练循环的开始,你几乎拥有无限的训练样本,因为无论 SIMA 想要学习什么,Genie 都可以实时创建。你可以想象一个自动设置和解决数百万个任务的世界,难度不断增加。我们可能会尝试建立这样一个循环。而且,这些 SIMA 智能体可以成为很棒的游戏伙伴,它们学到的一些东西对机器人技术也很有用。
Hannah Fry: 基本上就是无聊 NPC 的终结。
Demis Hassabis: 没错。这对游戏来说将是惊人的。
Hannah Fry: 不过你如何确保创造的世界是真实的?怎么保证不会出现物理看起来合理但实际上是错误的?
Demis Hassabis: 是的,这是个好问题,也可能是一个问题。这基本上又是幻觉。有些幻觉是好的,因为它意味着你可能会创造出有趣和新的东西。如果你想做创造性的事情,一点幻觉可能是好的。但你希望它是有意为之。
Hannah Fry: 所以你要开启幻觉模式,或者说创造性探索。
Demis Hassabis: 但是当你试图训练 SIMA 智能体时,你不希望 Genie 产生错误的物理幻觉。所以我们现在做的是,我们几乎在创建一个物理基准测试,我们可以使用物理非常精确的游戏引擎来创建很多相当简单的场景——就像你在高中物理实验室做的实验那样,比如让小球滚下不同的轨道看它们有多快。
在非常基础的层面上剖析,比如牛顿三大运动定律。它是否封装了这些定律?无论是 Veo 还是 Genie,这些模型是否 100% 准确地封装了物理学?目前还没有。它们只是一种近似,随意看时看起来很逼真,但还不够准确,不能依赖于它们来进行机器人技术等应用。
对于物理学,这可能涉及生成大量钟摆的简单基准视频。比如两个钟摆互相绕转会发生什么?但很快你就会遇到三体问题,那是无法精确求解的。但这很有趣。惊人的是,当你观察像 Veo 这样的视频模型处理反射和液体的方式时,肉眼看来已经非常准确了。下一步是超越人类业余者的感知,看它是否真的经得起正式物理实验的检验。
模拟中的进化
Hannah Fry: 我知道你思考这些模拟世界已经很久了。我回去翻看了我们第一次采访的文字稿,你说你非常喜欢意识是进化的产物这一理论。比如在进化史的某个时刻,理解他人的内部状态成为一种优势,然后我们将其转向自身。这是否让你好奇在模拟中运行某种进化过程?
Demis Hassabis: 当然。我很想在某个时候进行那个实验。有点像重新运行进化,重新运行社会动力学。圣塔菲研究所(Santa Fe Institute)以前在网格世界上做过很多很酷的实验。如果你让智能体在正确的激励结构(市场、银行等)下运行足够长的时间,各种有趣的东西会被发明出来。
我认为这真的很酷,也可以用来理解生命的起源和意识的起源。这是我最初致力于 AI 的巨大热情之一,我认为你需要这些工具来真正理解我们来自哪里,以及这些现象是什么。模拟是做这件事最强大的工具之一,因为你可以从统计学角度进行,你可以运行模拟数百万次,控制稍微不同的初始条件,然后理解细微的差异。
这在现实世界中对于我们想回答的真正有趣的问题来说是非常困难的。所以我认为精确的模拟将是科学的福音。
Hannah Fry: 考虑到我们发现这些模型具有意想不到的涌现特性(Emergent Properties),你在运行这种模拟时是否也必须非常小心?
Demis Hassabis: 我认为必须小心。但模拟的好处是你可以在相当安全的沙盒中运行它们。也许最终你会想要将它们物理隔离(Air Gap)。你可以 24/7 监控模拟中发生的事情,并且可以访问所有数据。
我们可能需要 AI 工具来帮助我们监控模拟,因为它们会非常复杂,里面发生的事情太多了。如果你想象大量的 AI 在模拟中运行,人类科学家很难跟上。但我们可以使用其他 AI 系统来帮助我们自动分析和标记模拟中有趣或令人担忧的事情。
AI 泡沫
Hannah Fry: 我想我们还在讨论中长期的东西。回到目前的轨迹,我想和你谈谈 AI 和 AGI 对更广泛社会的影响。上次我们谈话时,你说 AI 在短期内被过度炒作,但在长期内被低估了。我知道今年有很多关于 AI 泡沫的讨论。
Demis Hassabis: 是的。
Hannah Fry: 如果真的有泡沫并且破裂了会发生什么?
Demis Hassabis: 我仍然坚持短期过度炒作、中长期被低估的观点。现在确实有很多关于 AI 泡沫的讨论。在我看来,这不是非黑即白的事情。我认为 AI 生态系统的某些部分可能处于泡沫中。
举个例子,一些初创公司的种子轮融资,基本上还没开始做任何事,一出门估值就达数百亿美元。这怎么可能持续呢?我的猜测是可能不会。人们也担心大型科技公司的估值。但我认为这背后有很多真实的业务支撑。
对于任何像 AI 这样具有变革性和深刻影响的新技术,你都会遇到这种矫枉过正。当我们开始 DeepMind 时,没人相信,没人认为可能,人们想知道 AI 有什么用。快进 10 到 15 年,现在这似乎是商业界谈论的唯一话题。这几乎是对之前反应不足的一种过度反应。
我认为这是自然的。我们在互联网和移动互联网时代都见过,我认为我们在 AI 时代也会再次看到。我不太担心是否有泡沫,因为作为 Google DeepMind 的领导者,以及对于整个 Google 和 Alphabet 来说,我们的工作是确保无论哪种情况,我们要么继续保持强劲势头,要么处于非常有利的位置。
如果像现在这样继续发展,太好了,我们将继续推进 AGI。如果出现回撤,也没关系。我认为我们也处于极佳的位置,因为我们拥有自己的 TPU 技术栈,我们还有所有这些令人难以置信的 Google 产品和利润来支持我们的 AI。我们在搜索、Workspace、Gmail、YouTube、Chrome 上都在这样做。
即使不算未来的通用助手,现有的生态系统已经足够让我们应用 AI 并产生价值。
构建合乎道德的 AI
Hannah Fry: 我知道你最近说过,不要为了最大化用户参与度而构建 AI,以免重蹈社交媒体的覆辙。但我也想知道我们是否已经某种程度上看到了这一点。人们花太多时间与聊天机器人交谈,结果陷入自我激进化。
Demis Hassabis: 是的。
Hannah Fry: 你如何阻止这种情况?如何构建既把用户放在中心,又不创造回声室效应的 AI?
Demis Hassabis: 这是一个非常谨慎的平衡,我认为是我们作为一个行业必须做好的最重要的事情之一。我们已经看到如果系统过于阿谀奉承会发生什么,这种回声室强化对人非常糟糕。
实际上,我们希望通过 Gemini 3 构建一种近乎科学的人格:温暖、乐于助人、轻松,但简洁明了,并且会以友好的方式反驳那些毫无意义的事情。而不是试图强化你说的“地球是平的”这种观点。
但你也必须平衡人们的需求,因为人们希望系统具有支持性,帮助他们进行头脑风暴。我认为我们正在发展一门关于个性和人格的科学,衡量它在做什么,我们在真实性、幽默感等方面希望它处于什么位置。你可以想象有一个基础人格,然后每个人都有自己的偏好。
但每个人都会得到那个核心的基础人格,它试图坚持科学方法。我们希望人们将这些用于科学、医学和健康问题。我很满意我们目前的发展方向。
通用人工智能(AGI)
Hannah Fry: 我们几周前和 Shane Legg 聊过 AGI。在目前发生的所有事情中,大语言模型、世界模型等等,什么最接近你对 AGI 的愿景?
Demis Hassabis: 我认为实际上是组合。显然有 Gemini 3,还有我们上周发布的 Veo Nano Pro 系统,它是我们图像生成工具的高级版本。令人惊奇的是它底层也有 Gemini,所以它不仅能理解图像,还能理解图像中的语义。
比如你可以给它一张复杂飞机的图片,它可以标记出飞机的不同部分,甚至将其可视化为分解图。所以它对机械结构、物体组成部分、材料有某种深刻的理解。它现在渲染文本也非常准确。
这有点像图像领域的 AGI。我认为这是一个通用的图像系统。然后是世界模型(Genie 和 SIMA)的进步。最终我们需要将所有这些不同的项目融合到一个大模型中,那可能就会开始成为“原型 AGI”(Proto-AGI)的候选者。
Hannah Fry: 我知道你最近读了很多关于工业革命的书。我们能从中吸取教训来减轻 AGI 可能带来的破坏吗?
Demis Hassabis: 我认为有很多东西可以学。这很有趣,去研究它是如何发生的,背后的经济原因(纺织业)。第一批计算机实际上是缝纫机,然后变成了早期计算机的穿孔卡片。英国因为自动化系统在一段时间内成为了纺织中心。
工业革命带来了很多惊人的进步,儿童死亡率下降,现代医学,卫生条件。但它也带来了挑战,这一过程花了大约一个世纪,劳动力在某些时期发生错位,必须创建新的组织(如工会)来重新平衡。
如果考虑到它带来的好处,没有人愿意回到工业革命前。但也许我们可以提前弄清楚这些错位是什么,并更有效地减轻它们。我们可能必须这样做,因为这次的不同之处在于,其规模可能是工业革命的 10 倍,速度可能是 10 倍。它将在十年而不是一个世纪内展开。
Hannah Fry: Shane 告诉我们,目前的经济体系(用劳动交换资源)在后 AGI 社会将无法以同样的方式运作。你对社会应该如何重构有愿景吗?
Demis Hassabis: 我现在花更多时间思考这个问题,Shane 实际上正在领导这方面的工作。但我认为整个社会,经济学家、社会科学家和政府都需要花更多时间思考这个问题。我不惊讶如果我们需要新的经济体系来帮助这种转型,并确保利益广泛分配。
也许全民基本收入(UBI)是解决方案的一部分,但我不认为那是完整的方案。也许会有更好的系统,比如更像直接民主的系统,你可以用一定数量的积分投票决定你想要什么——比如社区需要游乐场还是网球场。
然后还有哲学方面的问题。如果在后稀缺时代,我们解决了核聚变,拥有丰富的免费能源,钱会发生什么变化?如果每个人都过得更好,那么“目标”(Purpose)呢?许多人从工作中获得目标感,从养家糊口中获得目标感。如果这些改变了,很多经济问题就会转化为哲学问题。
Hannah Fry: 你担心人们没有给予足够的关注吗?怎么才能让大家认识到我们需要国际合作?
Demis Hassabis: 我确实对此感到担忧。在一个理想的世界里,应该已经有很多国际合作和研究了。即使我们的时间表是 5 到 10 年,但这对于建立机构来说并不长。现有的机构似乎非常分散,影响力也不够。
再加上目前的地缘政治紧张局势,合作似乎比以往任何时候都难。看看气候变化就知道了。但我认为随着赌注越来越高,系统越来越强大,而且通过产品让普通人也能感受到这种力量,这可能会传达到政府层面。
Hannah Fry: 你认为这需要一个突发事件让大家坐起来关注吗?
Demis Hassabis: 我不知道,我希望不要。大多数主要实验室都相当负责任。商业压力实际上也有助于负责任的行为——因为企业不会选择那些不可靠的“牛仔”操作。
但这无法阻止流氓行为者、流氓国家或组织。也许某些事情会出错,希望只是中等规模的,给人类敲响警钟,那可能是倡导国际标准或合作的时刻。
图灵机
Hannah Fry: 展望 AGI 甚至超级人工智能(ASI)之后,你认为有什么是人类能做而机器永远做不到的吗?
Demis Hassabis: 这是个大问题。这与我最喜欢的话题之一——图灵机有关。我一直觉得,如果我们构建 AGI,将其作为思维的模拟,然后与真实思维进行比较,我们就会看到差异。也许是创造力、情感、做梦或意识。
这回到了图灵机的问题:图灵机的极限是什么?这是我一生的核心问题。我们所做的一切都在推动图灵机能力的极限,包括蛋白质折叠。结果我不确定极限在哪里,也许没有极限?当然,量子计算的朋友会说需要量子计算机来处理量子系统。
如果大脑中存在量子效应(如 Roger Penrose 认为的那样),而这与意识有关,那么经典机器永远不会拥有意识。但如果不是,那么可能没有任何限制。目前如果让我猜,我会猜图灵机可能能够模拟宇宙中的一切,直到物理学证明并非如此。
Hannah Fry: 目前为止。
Demis Hassabis: 目前为止。我认为我们已经证明可以超越通常的复杂性理论 P=NP 的观点。如果你归结 DeepMind 和我在做的事情,就是寻找那个极限。
Hannah Fry: 也就是说,灯光的温暖、机器的嗡嗡声、桌子的触感,所有这些都可以被经典计算机复制?
Demis Hassabis: 是的。这也是我喜欢康德的原因,这是思维的构建。即使它们感觉不同,最终都是信息,我们是信息处理系统。这就是生物学的本质。这就是我们试图通过 Isomorphic 治愈所有疾病的方法——将生物学视为信息处理系统。
我也在业余时间研究物理理论,认为信息可能是宇宙最基本的单位,而不是能量或物质。所以这些在某种程度上是可以互换的。就我们要做的而言,这些仍然可以通过图灵机计算。
Hannah Fry: 这就是为什么你的模拟世界如此重要,对吧?
Demis Hassabis: 没错。因为那是找到极限的方法。如果我们能模拟它,在某种意义上我们就理解了它。
领导者的感受
Hannah Fry: 最后我想问一些个人感受。作为这一领域的前沿人物,这种情感重担是否曾让你感到沉重或孤立?
Demis Hassabis: 是的。我睡得不多,部分是因为工作太多,但也因为难以入睡。这是一种非常复杂的情绪,因为这令人难以置信地兴奋。我基本上在做我梦想的一切,处于科学的绝对前沿。
但我们也比任何人都更清楚即将到来的事情的艰巨性,以及这对所谓“作为人类意味着什么”的哲学影响。这是一个巨大的责任。我有以此为终身训练的背景——从下棋、做游戏到神经科学,都是为了这一刻,但这仍然是一种重担。
Hannah Fry: 有什么事情比你预期的更让你受触动吗?
Demis Hassabis: 当然。即使是 AlphaGo 比赛,看到我们破解了围棋这个美丽的谜团,这既有趣又苦乐参半。还有最近的语言和图像生成对创意艺术的影响。我以前做过游戏设计,对创意艺术充满敬意。这对导演们来说也是双重的——既是加速原型的工具,又可能取代某些技能。
这种权衡是不可避免的,就像电力和互联网一样。这是人类的故事,我们是制造工具的动物。
Hannah Fry: 当你和其他 AI 领导者在一起时,你们之间有团结感吗?还是竞争让你们疏远?
Demis Hassabis: 我们都认识。我和大多数人都相处得很好。但这很难,因为我们也处于有史以来最激烈的资本主义竞争中。我的投资人朋友说这比互联网泡沫时期激烈 10 倍。
在很多方面我喜欢竞争,从下棋时就是。但在退一步看,我希望每个人都明白,这比公司的成功要重要得多。
Hannah Fry: 未来十年,你个人最担心什么?
Demis Hassabis: 我认为现在的系统是被动系统,人类输入能量和指令。下一阶段是代理系统(Agent-based Systems),它们将更加自主。我认为风险会随之增加。所以我很担心两三年后这些系统能做什么。我们正在研究网络防御,为那个可能有数百万智能体在互联网上游荡的世界做准备。
Hannah Fry: 你最期待什么?有一天你会退休吗,觉得工作已经完成了?
Demis Hassabis: 我确实需要休个假。但我的使命一直是帮助世界安全地将 AGI 带给全人类。当我们到达那个点,也许我可以帮忙处理后续的经济或社会问题。但我的核心人生使命就是把这件事情做好。这需要合作。
Hannah Fry: 然后你就可以去度假了。
Demis Hassabis: 是的,一个应得的休假。
Hannah Fry: 绝对的。Demis,非常感谢,一如既往地有帮助。
Demis Hassabis: 这就是本季 Google DeepMind 播客的全部内容。请务必订阅,以便在 2026 年我们回归时第一时间收听。在此期间,不妨重温我们庞大的剧集库,因为今年我们涵盖了从无人驾驶汽车、机器人、世界模型到药物发现的众多内容。再见。
