Sam、Jakub 和 Wojciech 谈 OpenAI 的未来,附观众问答




内容概要

Sam Altman、Yakob (Jakub) S. 和 Wojciech Z. 概述了 OpenAI 的未来,重点介绍了其三大支柱:研究 (research)、产品 (product) 和基础设施 (infrastructure)。他们讨论了通往超级智能 (superintelligence) 的路径、用户自由 (user freedom) 等新的平台原则、庞大的基础设施承诺以及新的公司架构。演讲最后介绍了“AI 韧性” (AI Resilience) 的概念,并进行了观众问答。


目录

  • 引言与 OpenAI 的使命

  • 研究支柱:通往超级智能与安全的路径

  • 产品支柱:向平台进化

  • GPT-5 用户展示

  • 平台原则:用户自由与隐私

  • 基础设施支柱:承诺与目标

  • OpenAI 的新架构与基金会目标

  • 介绍 AI 韧性 (AI Resilience)

  • AI 驱动科学发现的未来

  • 观众问答


引言与 OpenAI 的使命

Sam: 大家好,我是 Sam。这是我们的首席科学家 Yakob。我们今天想分享一系列关于 OpenAI 的最新动态。

今天的新闻显然是关于我们的新架构。我们会在最后谈到这一点,但在此之前,我们想先分享许多其他重要的背景信息。

鉴于这些内容的重要性,我们将以一种不同寻常的透明度,来公开我们的一些具体研究目标、基础设施计划和产品。

我们认为,在当前这个节点,披露所有这些信息非常符合公众利益。

OpenAI 的使命,无论是在非营利组织还是在我们新的 PBC (Public Benefit Corporation,公共利益公司),都是确保通用人工智能 (AGI) 惠及全人类。

随着我们越来越接近构建 AGI,我们对于“惠及全人类”的含义有了新的见解。

在 OpenAI 的早期阶段,我们曾认为 AI 或 AGI 会是某种高高在上的神谕,它会为我们创造各种美好的事物。

现在我们对此有了更清晰的看法:我们希望创造工具,然后让人们使用这些工具去创造未来。

我们希望尽可能地用 AI 赋能人类,并相信人类历史上一直在发挥作用的那个进程——即人们用更新、更好的工具构建更美好事物的进程——将继续下去。

我们现在可以看到一个愿景:我们帮助构建一个个人化的 AGI,人们可以在任何地方使用它,它配备了所有这些不同的工具,可以访问所有这些不同的服务和系统,以帮助人们处理工作、个人生活。

随着 AI 变得越来越好,甚至能够发现或帮助发现新科学时,人们将能够利用它创造出让整个社会更美好、让自己生活更充实的东西,我们认为这将是相当不可思议的。

我们认为 OpenAI 有三个核心支柱:研究、产品和基础设施。

我们必须成功完成构建 AGI 所需的研究。

我们必须构建一个让 AGI 易于使用且功能强大的平台。

我们必须建设足够的基础设施,以便人们能够以低成本使用他们想要的、所有这些了不起的 AI。

这里有一张小图,展示了我们如何看待我们的世界。

在最底层,我们有芯片、机架以及围绕它们的系统、容纳它们的数据中心,还有能源。

我们今天会重点谈谈前三者,能源问题我们下次再聊。

然后,我们在这些基础设施之上训练模型。

再往上,我们有一个 OpenAI 账户。

我们现在有了一个浏览器,叫做 Atlas,未来几年我们还将推出新的设备,让你可以随身携带 AI。

我们有一些第一方应用,如 Chachi、Pine 和 Sora,未来还会有更多。

但我们最兴奋的是右上角的那个大拼图。

我们终于将进入一个这样的世界:人们将能够利用 AI 构建出令人难以置信的服务,从我们的 API 开始,到 ChatGPT 中的应用、我们将逐步推出的新企业平台、一个开放账户以及更多。

人们将能够把世界上所有现存的以及更多的事物,融入这个新的 AI 世界,而我们希望促成这一切。我们相信,世界将为我们所有人创造巨大的价值。

这就是我们所设想的经济图景。

但有一件事,我们已经思考了很久,并且现在真正看到它正在发生,或者说开始发生——它的微光、它的绿芽,无论你怎么称呼它——那就是 AI 将对科学产生的影响。

尽管前一张幻灯片中提到的经济影响将是巨大的,但从长远来看,对于生活质量、社会进步和变革而言,能够自主发现新科学或帮助人们更快发现新科学的 AI,将是最重要的事情之一,也是我们正努力去理解的事情。


研究支柱:通往超级智能与安全的路径

Sam: 接下来,我来把时间交给 Yakob,谈谈研究方面。如我所言,我们将分享大量关于我们内部目标以及我们对事物发展看法的内部信息。

Yakob: 谢谢 Sam。

我们的核心是一个研究实验室,专注于理解一种叫做“深度学习” (deep learning) 的技术。

因此,我们的一个特别关注点是,当你扩大深度学习系统的训练规模时,会发生什么。

我们在这方面经常讨论的一个结果就是 AGI,即通用人工智能。

但我们发现,在某种程度上,这可能还是低估了这里可能发生的进步和变革的量级。

特别是,我们相信深度学习系统距离“超级智能” (superintelligence) 可能不到十年。

超级智能是指在众多关键轴面上都比我们所有人更聪明的系统。

当然,这是一件严肃的事情。

这其中有许多需要应对的影响。而这项技术及其前导技术的一个特别聚焦点和影响,同时也是我们整个研究计划所围绕的核心,就是加速科学发现、加速新技术发展的潜力。

我们相信,这可能是 AI 发展最重大的长期影响。

它将从根本上改变新技术发展的步伐。

那么,我们距离这些目标还有多远呢?一个衡量进展的好方法是看人们需要花多长时间来完成模型能执行的任务。

在过去几年里,这个时间跨度一直在迅速延长。

目前这一代模型所处的位置,大约是 5 个小时。

你可以通过观察模型在国际信息学奥林匹克竞赛等比赛中与最优秀人类选手的匹敌情况来看出这一点。

我们相信这个时间跨度将继续迅速延长。

这部分是算法创新的结果,部分也源于深度学习规模的进一步扩大。特别是沿着“上下文计算” (in-context compute)——也称为“测试时计算” (test time compute)——这个新轴线的扩展,我们认为在这个方向上还有数个数量级的提升空间。

这大致是模型用于“思考”的时间。如果你看看模型目前在问题上花费的思考时间,再想想你希望在真正重要的问题(比如科学突破)上花费多少计算资源和时间,你应该会乐意使用整个数据中心。

所以,这方面确实还有很长的路要走。

预见到这一进展,我们当然会在内部围绕它制定计划。我们希望在我们的思考上提供一些透明度。

因此,我们想采取这个可能有些不同寻M常的步骤,分享我们朝着这些非常强大系统迈进的内部目标和时间表。

我们必须说明,这些具体日期很可能不准确,但这代表了我们目前的思考方式,以及我们目前规划和组织工作的方式。

作为一个致力于“自动化研究”的研究组织,我们自然在思考:这对我们自己的工作有何影响?加速未来 AI 系统发展的 AI 系统会是什么样子?

它们如何赋能“对齐” (alignment) 这样的研究?

因此,我们正计划在明年 9 月前,实现能够通过消耗大量计算资源来显著加速我们研究人员工作的、能力相当强的“AI 研究实习生”。

我们相信这其实已经相当近了。

然后,我们期望在 2028 年 3 月前,获得一个能够自主交付更大型研究项目的系统,以及一个有意义的、完全自动化的 AI 研究员。

当然,当我们展望这些能力极强的系统时,我们会思考很多关于安全 (safety) 和对齐 (alignment) 的问题。事实上,我们的大量工作,无论是在部署和安全方面,还是在理解深度学习和发展能力方面,都可以被视为在为这些能力极强的模型做准备。

安全是一个多方面的问题,所以我们通常将我们的思考构建为五个层次,从最接近模型内部的因素到最外部的因素。

在核心层面,我们认为是超级智能最重要、最长期的安全问题,是“价值对齐” (value alignment)。

你可以把价值对齐理解为:AI 真正关心的是什么?

它能否遵守一些高层次的原则?

当被给予不清晰或相互冲突的目标时,它会怎么做?

它是否热爱人类?

我们之所以认为这些驱动 AI 的高层次目标或原则如此重要,是因为当系统思考时间非常长、变得非常聪明、处理的问题处于人类能力边缘甚至超越人类能力时,想要给出完整的规范将变得非常困难。

因此,我们必须依赖这种更深层次的对齐。

其次是“目标对齐” (goal alignment)。

智能体 (agent) 是否与人互动?它如何与人互动?它如何遵照指示行事?

然后是“可靠性” (reliability)。

AI 能否正确校准其预测?

它能否在简单任务上可靠,在困难任务上表达不确定性?它能否处理那些有点不熟悉的环境?

接着是“对抗性鲁棒” (adversarial robustness),这与可靠性密切相关,但它关乎的是对抗性环境。AI 能否抵御来自人类或 AI 对手的定向攻击?

最外层是“系统性安全” (systemic safety),这是关于整个系统行为的保障,它不依赖于 AI 的智能或对齐程度。

例如,这可以是安全性、AI 能访问哪些数据,或者它能使用哪些设备。

我们在这些领域都投入了多个研究方向。

我们也看到,随着深度学习的整体发展和理解的加深,我们已经取得了相当多的进展。

我想在这里做一个稍微深入的技术探讨。

谈谈一个特定的方向。价值对齐是一个难题。它绝对还没有被解决。

然而,有一个很有前途的新工具可以帮助我们研究它,那就是“思维链忠实度” (chain of thought faithfulness)。

我们在这方面投入了大量资源。

从我们最早的推理模型开始,我们就一直在可解释性 (interpretability) 方面追求这个新方向。其理念是,让模型内部推理的某些部分不受监督 (supervision)。

在训练期间不要去“看”它,从而让它保持对模型内部过程的代表性。

我们克制自己不去引导模型“想好的念头”,从而让它更忠实于它“实际”的想法。

当然,这并不保证一定有效。

我们无法对深度学习做出数学证明。所以这是我们正在研究的。

但我们有两个理由保持乐观。

第一个理由是,我们已经看到了非常有前景的实证结果。这是一项我们在内部大量使用的技术。我们用它来理解我们的模型是如何训练的,以及它们的倾向性在训练过程中是如何演变的。我们还曾与外部合作,成功地研究了模型的倾向性方案。

其次,它是可扩展的 (scalable)。从某种意义上说,我们明确地使这个可扩展的目标与我们监控模型的能力“不冲突” (not adversarial)。

当然,一个目标与监控能力不冲突,这只成功了一半。

理想情况下,你希望它能“帮助”监控模型。这就是我们正在大力研究的方向。

但关于思维链忠实度,需要强调的一个重点是,它在某种程度上是脆弱的 (fragile)。

它真的需要划定一个清晰的界限,有一个清晰的抽象,并且在你能以何种方式访问思维链方面保持克制。

这一点在 OpenAI 从算法设计到产品设计的方式中都有体现。比如,如果你看看 ChatGPT 中的思维链摘要,如果我们没有思维链摘要器,如果我们只是让思维链在任何时候都完全可见,那它就会成为整体体验的一部分。久而久之,就很难不对它施加任何监督。

因此,从长远来看,我们相信通过为模型保留一定程度的“受控隐私” (controlled privacy),我们可以保留理解它们内部过程的能力。我们相信,随着我们向那些能力极强、可长期运行的系统迈进,这将是一项极具影响力的技术。

我把时间交还给 Sam。


产品支柱:向平台进化

Sam: 好的,接在 Yakob 后面讲剩下的内容很难,而且显然,他讲的部分才是我们今天要说的最重要的内容。

但我想重申的是,我们可能完全错了。我们过去也曾设定过目标,然后惨败。但根据我们所看到的图景,我们认为,明年 9 月我们有可能拥有一个实习生级别的 AI 研究助理。

到了 2028 年 3 月——我记得这几乎是 GPT-4 发布后的整整 5 年——我们就会有一个真正合法的 AI 研究员。

这是我们研究计划的核心主旨。

我们还想谈谈另外两个领域:产品和基础设施。

在产品方面,随着我们在深度学习方面取得如此令人难以置信的进展,我们希望让它对人们有用,去“创造未来”,就像我们提到的。

传统上,这对我们来说意味着 ChatGPT 内部的 AI 超级助手,但我们现在真的要进化到一个平台,一个让其他人可以在其上构建的平台。

世界上所有需要整合进来的部分,都将由他人来构建。


GPT-5 用户展示

Sam: 在讨论这个之前,我想先播放一个简短的视频,展示人们现在是如何在 Chachi 中使用 GPT-5 的,以及他们使用 GPT-5 的一些方式。

[音乐开始]

用户 1: 我是一名量子物理学家。

用户 2: 我是一名美甲技师。

用户 3: 人类免疫学家。

用户 4: 我是一名钢铁工人。

用户 5: 一名设计师和开发者。

用户 6: 一名经济学教授。

用户 7: 我的工作基本上就是钓鱼。

用户 1: GPT-5 能够预测我们甚至还没有做的实验的结果。

用户 4: 你能创建一个零件编号系统吗?要让我们车间的兄弟们容易看懂。

用户 7: 我想在湾区抓珍宝蟹 (Dungeness crab)。

用户 1: 在这里,我会问一个关于应用某个特定量子算子的问题。这个模型给了我非常详细的数学推导。

用户 5: 我想要一个相机应用,可以让我实时地在空中作画。

用户 3: 我们有了一个主题,我们有了前进的方向。

用户 6: 让我们从一百万个或无数个想法中,筛选出 10 个或 20 个。

用户 7: 你就开始测试它。你给它讲笑话,你问它问题,比如经济学家该怎么做?我可以使用不同的鱼饵,不同的水深。所有这些信息,如果靠你自己,可能要花上数年才能摸索出来,需要大量的试错。

用户 6: 它对头脑风暴非常有帮助。

用户 1: 这是一个来回往复的过程。我可以轻松地跟上它的推理。我不需要去“相信”结果,我只需要看:你是怎么做的?

用户 5: GBD-5 一次就搞定了。

用户 4: 101 个零件编号。如果是我自己来编号,可能要花上几周时间,而且会让我看得眼花缭乱。

[音乐结束]


平台原则:用户自由与隐私

Sam: Yakob 稍后会和我一起回来参加问答环节,但在那之前,我们还有一位特别嘉宾。

我们热爱这样的应用。

我们想要更多这样的应用。

我们希望它无处不在。

所以,我们希望 OpenAI 成为一个平台,让个人和公司可以在上面构建。

我们现在已经能够看到通往“AI 云” (AI cloud) 的路径,在那里,AI 不仅仅存在于 ChatGPT 中,也不仅仅是我们创造的服务,而是我们希望开放我们的技术,让尽可能多的人去构建那些人们将依赖、使用和创造的东西。

我认为这个引述,或者至少这个观点,最初来自比尔·盖茨——至少我最早是从他那里听说的——那就是,当你构建了一个平台,并且人们在平台上创造的价值超过了平台构建者自己创造的价值时,你才算真正建成了这个平台。

这就是我们的目标。

这是我们明年的目标。我们真的认为,我们现在可以利用这项技术、这个用户群以及我们已经建立的这个框架,让全世界在它之上构建出令人惊叹的新公司、新服务和新应用。

要做到这一点,我们必须在很多方面进行演进,但当我们在向这个平台迈进时,有两个基本原则是我想谈谈的。

首先是用户自由 (user freedom)。

如果这将是一个让各种各样的人在上面构建、使用、创造的平台,那么世界各地的人们将有非常不同的需求和愿望。

当然会有一些非常宽泛的界限,但我们希望用户在如何使用它方面拥有大量的控制权和定制权。

不久前,我犯了一个愚蠢的错误,当时我试图谈论这一点。

我当时希望用“情色作品” (erotica) 以外的例子,我以为在“情色作品”和“色情机器人” (pornbots) 之间有可以理解的区别。但无论如何,我们想表达的观点是,人们需要很大的灵活性,人们希望以不同的方式使用这些东西,我们希望像对待成年人一样对待我们的成年用户。

在我们自己的第一方服务中,我们可能会有更严格的指导方针,但 AI 将成为人们生活中如此重要的一部分,人类表达的自由必须得到保障。

与此同时,我们认为这个世界需要以一种不同于以往技术的方式来思考隐私 (privacy)。

隐私对所有技术都很重要,但对 AI 而言,隐私将尤其重要。

人们使用这项技术的方式与过去的技术不同。

他们和它交谈,就像和他们的医生、律师、配偶交谈一样。

他们分享自己生活中最私密的细节。

当然,我们需要强大的技术保护来保护这些隐私。但我们认为,我们还需要强大的政策保护。

我们已经讨论过诸如“AI 特权” (AI privilege) 这样的概念。但如果 AI 真的要成为人们生活中的基础平台,那么强大的保护对我们来说就显得至关重要。


基础设施支柱:承诺与目标

Sam: 好的,接下来我想谈谈基础设施。

我知道外界对我们基础设施建设的进展有很多困惑,我们想借此机会完全透明地公开。

截至今天,我们承诺的基础设施建设总量略高于 30 吉瓦 (gigawatts)。

这大约是未来许多年里,总计 1.4 万亿美元的财务承诺。

这是我们目前为止所承诺的。我们当然希望能做得更多,但鉴于我们今天所看到的图景,考虑到我们对收入增长和融资能力的预期,这是我们目前感到可以承受的范围。

这需要大量的合作伙伴。我们已经谈到过我们许多出色的芯片合作伙伴。

还有人(为我们)建设数据中心、土地、能源。

我们还将有芯片制造设施。

这已经开始需要大量的供应链创新。我们很高兴能与 AMD、Broadcom、Google、Microsoft、Nvidia、Oracle、SoftBank 以及许多其他公司合作,来真正实现这一目标。

但这仍然只是早期阶段。

如果 Yakob 谈到的研究工作(我们认为它会)取得成果,如果这些东西的经济价值得以实现,并且人们希望使用所有这些服务,那么我们需要的将远远不止这些。

所以我想澄清一点,我们尚未对此做出承诺,但我们正在就此进行对话。

我们的愿望是,我们能建立一个“基础设施工厂” (infrastructure factory),在那里我们每周可以创造 1 吉瓦的算力。

我们渴望能将成本大幅降低,比如在 5 年的设备生命周期内,降至每吉瓦 200 亿美元。

要做到这一点,将需要海量的创新、海量的合作伙伴,显然还需要收入的大幅增长。

我们将不得不重新调整我们对机器人技术的想法,让它来帮助我们建造数据中心,而不是做所有其他事情。

但这是我们希望达成的目标。在接下来的几个月里,我们将做大量的工作,看看是否能实现这一目标。

要达到我们能够真正拍板并启动这个计划的财务状况,还需要一些时间。

1 吉瓦是一个很大的数字,但我想通过一个短片来让大家对它有一个直观的感受。

这是我们在得克萨斯州阿比林 (Abilene, Texas) 建造的一个数据中心。

这是第一个“星际之门” (Stargate) 站点。我们现在在全国各地都在建好几个这样的站点,但这一个是进展最快的。

每天都有成千上万的人在这里工作,光是在工地上施工。

在供应链上,可能有数十万甚至数百万人在工作,以确保这一切的发生——设计这些芯片、制造这些芯片、把它们组装起来。

为了能源,这里面投入了大量的工作。为了每 1 吉瓦的算力,都有巨量的工作需要完成。

我们想弄清楚,如何才能让这个过程变得更高效、更便宜、更具可扩展性,以便我们能够交付研究路线图所要求的基础设施,以及人们想要使用这项技术的所有方式所需要的基础设施。


OpenAI 的新架构与基金会目标

Sam: 为了实现这一目标,我们有了一个新架构。

也许你之前见过那个极其复杂的、包含所有 OpenAI 实体的图表。

现在它变得简单多了。

我们有一个名为 OpenAI 基金会 (OpenAI Foundation) 的非营利组织,它控制着董事会,并且,董事会也设在这里,它还拥有我们 PBC (公共利益公司)——即 OpenAI Group——的一部分股权。

所以,非营利组织处于控制地位,公共利益公司 (PBC) 位于其下。

我们希望 OpenAI 基金会成为有史以来最大的非营利组织。

正如我刚才多次提到的,科学是我们认为世界得以改善的最重要途径之一,此外还有那些广泛分配科学收益的机构。

因此,科学不会是这个非营利组织资助的唯一领域,但它将是我们所做工作中的第一个重要领域。

非营利组织将管理 PBC。

它最初将拥有 PBC 约 26% 的股权,但如果我们的业绩非常好,这个比例未来可以通过认股权证 (warrants) 增加。

它将利用这些资源,根据技术的发展水平和社会的需求,去追求我们认为是 AI 能带来的最佳利益。

PBC 的运作将更像一家普通公司。

它将拥有相同的使命。

它将受到该使命的约束。

在安全问题上,它将只受该使命的约束。但它将能够吸引我们所需要的资源,以支持那个庞大的基础设施建设计划,从而服务于我们的研究和产品目标。

基金会的初期重点——我们未来会做更多事情,但我们希望首先能一鸣惊人——是一项 250 亿美元的承诺,用 AI 来帮助治愈疾病。

实现这一目标有很多途径。

比如生成数据、使用大量算力、资助科学家,以及用于“AI 韧性” (AI resilience)。

AI 韧性是一个新兴的、我认为非常重要的领域。

我想邀请我们的联合创始人 Wojciech 上台,谈谈这将是怎样一个图景。


介绍 AI 韧性 (AI Resilience)

Wojciech: 大家好,很高兴来到这里。

Sam: 感谢你的到来。

Wojciech: “AI 韧性” (AI resilience) 这个词,它的范围比我们历史上所认为的“AI 安全” (AI safety) 要更广泛一些。

在韧性方面,我们认为先进的 AI 伴随着风险和颠覆,我们希望有一个由组织构成的生态系统,能够帮助解决其中一系列问题。

让我举个例子来更好地说明。

我们都相信 AI 将在生物学领域取得进展。随着它在生物学领域的进步,就存在这样一种风险:某些不良行为者可能会利用 AI 制造人为的大流行病。

在安全 (safety) 层面,缓解措施是确保模型能阻止那些与病毒学相关的查询。

然而,如果你考虑整个 AI 行业,很有可能,即使 OpenAI 阻止了它,还是会有人使用市面上的其他不同模型,仍然能制造出病原体。

在韧性 (resilience) 层面,我们不只是想阻止它,我们还希望在问题一旦发生时,能有快速的响应机制。

当我思考这些风险和颠覆时,我发现它们有很多。

心理健康是其中之一,生物安全是另一个,工作岗位流失可能也是一个。

我们认为我们需要一个生态系统。我喜欢的一个类比是“网络安全” (cyber security)。

在互联网初期,那是一个人们不敢输入自己信用卡号的地方,因为太容易被黑客攻击了。

当病毒爆发时,人们会互相打电话,提醒对方把电脑从互联网上断开。

我们已经取得了长足的进步。

目前,已经有了由网络安全公司构成的完整基础设施,它们在保护关键基础设施、政府、企业和个人用户,以至于人们愿意把最私人的数据放到网上,把一生的积蓄存在线上。

网络安全已经发展到了很高的水平。我们认为,类似的情况也会出现在 AI 领域,将会有一个“AI 韧性层”。

我非常兴奋,我们的非营利组织将帮助推动这一进程,创建一个这样的生态系统。

Sam: 我也是。我认为现在是做这件事的重要时机,我很高兴你将去探索如何实现它。


AI 驱动科学发现的未来

Sam: 再次强调,这些并不是非营利组织将资助的唯二领域,但我们很高兴能把这两项作为首批重点:利用 AI 研发疾病的治疗方法,以及在我们探索如何将 AGI 部署到社会的过程中,推动这项新的 AI 韧性工作。

我们提到了我们的三个支柱,但如果这一切都成功了呢?

我们认为,到 2026 年,我们有望开始看到那一年的模型开始做出一些小的(科学)发现。

到 2028 年,中等甚至可能更大的发现。

至于 2030 年和 2032 年会是什么样子,谁知道呢?

如果 AI 能够像过去发生的那样,持续推动科学进步,我们认为未来将非常光明。

当然,我们认为人类能够自主决定如何走过这个未来,这一点非常重要。但新的科学进步为我们打开的广阔空间,是相当惊人的。

所以,我们请 Sora (OpenAI 的视频生成模型) 帮助我们通过回望过去,来想象一个 radically better (根本上更美好) 的未来。

我们对科学史如何“承上启下”——一个发现在另一个发现的基础上建立起来——特别感兴趣。

这就是我们希望 AI 能带来的。

你知道,这(影片中展示的)是 200 年的科学史。但如果你能把这 200 年里“复利式”的发现、这种“脚手架式”的层层递进,不是用 200 年,而是用 20 年,或者 2 年来完成呢?如果你再看看这种加速的程度,想想什么是可能的。

在那之前,你就可以想象一个世界,一个根本上更美好的未来变得触手可及。

这里的这个数据中心正在发现癌症的治疗方法。

那里的数据中心正在制作有史以来最好的娱乐内容。

这里的这个数据中心在帮你找到你未来的丈夫或妻子。

那个正在建造火箭,帮你殖民太空。

这个在帮助解决气候危机。

我们用传统的方式做了所有这些事情。

而现在,在 AI 的帮助下,我们将能够以也许强大得多的力量,去塑造未来。

我们谈到了一些 AI 医疗。我们对机器人感到非常兴奋。

我们真的认为能源对世界非常非常重要。我们想弄清楚个性化教育能意味着什么,设计新颖的材料,以及可能还有一大堆我们现在甚至还想不到的事情。


观众问答

Sam: 随着我们进入 OpenAI 的下一个阶段,更重要的是,随着深度学习的持续进步,我们感谢大家今天的加入。我们现在要尝试一件新事物,那就是我们将直接回答问题。

如果效果好,我们未来会更多地尝试。Yakob 将重新加入这个问答环节。

非常感谢。

这对我们来说是一种新形式,所以请大家在我们第一次尝试时保持耐心。

如果这种形式有用,我们会经常做的。

我们将尝试按照点赞数最多的顺序来回答问题。

我们准备好了吗?

好的,让我们看看效果如何。

你可以在 Vimeo 链接中提问,我们将开始回答。

来自 Caleb 的问题:“我们曾警告说,这项技术正变得令人上瘾并侵蚀信任,但 Sora 却在模仿 Tik Tok,而 Chachi 可能会加入广告。为什么重复你曾批评过的相同模式?你将如何通过行动而非空谈来重建信任?”

我们确实对此感到担忧。

我担心的不仅是像 Sora、Tik Tok 和 ChatGPT 中的广告这些我们也许可以精心设计的已知问题。

我们确实也看到人们与聊天机器人发展出了我们未曾预料到的关系,鉴于那里可能存在的成瘾行为。

考虑到世界上的动态和竞争,我猜一些公司会提供非常容易上瘾的新型产品。

我想,你只能通过我们的行动来评判我们。我们必须……我们会犯一些错误。我们会尝试回滚有问题的模型。

如果我们发布了 Sora,而它变得超级令人上瘾,且与创作无关,我们会取消这个产品。你只能通过这些来评判我们。

我希望并相信,我们不会重蹈覆辙,不会犯前人公司犯过的错误。

我也不认为他们是故意要犯那些错的。你知道,我们都在共同探索这个领域。

不过,我们很可能会犯下新的错误,我们必须迅速进化,并保持一个紧密的反馈循环。

我们可以想象这项技术在世界上造福的各种方式,当然也有明显的坏处。

我们以使命为导M向,我们将不断进化产品。

Yakob: 关于我们在 ChatGPT 或 Sora 这样的产品中优化的目标,我们抱有很大希望的一点是,我们优化的目标是“极长期” (very long term) 的福祉,这与我们通常思考的“延长模型高效工作的时间跨度”在本质上是非常一致的。

因此,我们相信在这方面还有很大的发展空间,我们最终可以得到真正为长期满意度和福祉,而不仅仅是短期信号,进行优化的模型。

Sam: 好的,下一个问题。“安装成人模式后,我们是否可以选择永久保留 4-O 模型?我们作为负责任的成年人,不需要更安全的模型。”

我们目前没有计划淘汰 4-O。

我们也不会承诺将它保留到宇宙热寂。但我们理解,这是我们一些用户非常喜爱的产品。

我们也希望其他人能理解为什么我们认为它不是一个适合未成年人使用的健康模型。

我们希望随着时间的推移,我们能构建出人们更喜欢的、更好的模型。你知道,你生活中的人际关系,他们也会随着时间进化、变得更聪明、发生一点变化。我们认为,我们希望同样的事情也会发生。

但总而言之,目前没有计划淘汰 4-O。

哇,关于 4-O 的问题真多。

好吧,出于时间考虑,我们不一一点评了。但总的来说,我们希望人们拥有他们想用的模型。

我们不希望人们感觉我们在强迫他们切换模型。

我们希望成年人能像成年人一样做出选择,只要我们认为我们不是在卖海洛因之类的东西——你也不应该那样做。

所以,对于那些想要情感化言论的人,正如我们所说,我们希望允许更多,并且我们计划这样做。

好的,这里有一个来自匿名用户的、给 Yakob 的好问题。“AGI 什么时候会发生?”

Yakob: 我认为在未来几年后,当我们回望这些年,我们会说,这就是 AGI 发生的过渡期。

我认为,就像 Sam 刚才说的,我们早期在情感上把 AGI 想象成一个能解决所有问题的终极方案,它是一个单一的时间点,有“之前”和“之后”。

但我们发现,它更像是一个连续的过程。

特别是对于那些曾经看起来是通往 AGI 的明显里程碑的各种基准测试,我们现在倾向于把它们看作是“大致标示了我们还有多少年”的指示器。

所以,如果你看看一系列的里程碑,比如计算机在国际象棋上击败人类,然后在围棋上,然后计算机能够用自然语言交谈,再然后计算机能够解决数学问题,很明显,这些里程...

...[AI 助手:抱歉,我没有在 04:58 处找到任何语音] ...[AI 助手:抱歉,我没有在 05:01 处找到任何语音] Sam: 是的,我认为 AGI 这个词已经被过度解读了,正如 Yakob 所说,这将是我们正身处其中的、持续数年的过程。

但我们今天之所以做这个演讲,其中一个原因就是,我认为,说“我们的意图、我们的目标是到 2028 年 3 月拥有一个真正的自动化 AI 研究员”,并定义那意味着什么,这比试图用一个 AGI 的定义来满足所有人要有用得多。

Yakob: 或许还可以提一点,这里有一个反直觉的地方:我们显然在处理一种非常复杂的技术,我们试图理解所有这些算法,也许最初我们想象 AGI 就是你搞懂了所有答案的那个时刻,它是最终的形态。

但现在我们越来越意识到,存在着一条智能曲线,也许是多维的,人类处在曲线的某个位置。而随着你扩展深度学习、开发新算法,你最终会逼近那个点,并最终超越它,并且在很多轴面上已经超越了。

而这并不意味着你已经解决了围绕它的所有问题,这是我们需要严肃思考的。

Sam: “你们能透露一下内部模型领先于已部署模型的程度吗?”

Yakob: 我认为,我们对下一代模型有相当高的期望。

所以我认为我们期待在接下来的几个月和一年里取得相当迅速的进展。

是的,但我们并没有隐藏什么极其疯狂的东西。

Sam: 是的,在实践中,这种情况通常是:我们开发了很多“零件”,你知道,它们都是来之不易的胜利,然后我们知道,当我们把它们组合在一起时,我们将得到一些令人印象深刻的东西,而且我们能够相当准确地预测这一点。

我们今天的部分目标就是想说,我们已经拥有了很多这样的“零件”。并不是说我们现在藏着一个巨大的、不向世界展示的东西,而是我们期望在一年后,当然,伴随着 2026 年 9 月的那个目标,我们有现实的机会在能力上实现一次极其重要的飞跃。

Ronin 问:“OpenAI 在与 Anthropic、Gemini 或 XAI 等实验室合作,进行联合研究、算力共享和安全工作方面的立场是什么?”

我们认为这在安全方面将变得越来越重要。

实验室之间需要共享安全技术、安全标准。

你可以想象,有一天全世界都会说:“好吧,在我们进入‘递归式自我完善’ (recursive self-improvement) 阶段之前,我们真的需要所有人一起仔细研究这个问题。”

我们欢迎这种合作。我认为这将非常重要。

Yakob: 关于我之前提到的思维链忠实度,有一点要提的是,我们实际上已经开始讨论建立行业规范,并且我们已经开始与来自 Google、Anthropic 和其他一些实验室的研究人员进行一些联合调查。

是的,这是我非常兴奋的事情,我认为这是一个我们可以通过跨实验室合作真正受益的范例。

Sam: 匿名用户问:“你们会开源一些旧模型吗?比如原始的 GPT-4?”

也许有一天我们会把它们当作博物馆的文物来开源,但它们并不是... GPT-4 并不是一个特别有用的开源模型。它很大,而且没那么好。

我们也许能用非常小的规模,做出超越 GPT-4 能力的东西,那对人们才真正有用。

所以对于有用的东西,我期待更多的是后者。至于有趣的博物馆文物,是的,总有一天,谁知道呢?我觉得那会很酷。

另一位匿名用户,也许是同一位,问:“你们会承认你们的新模型不如前一个,并且你们正因为傲慢和贪婪而毁掉你们的公司,同时忽视用户需求吗?”

我“相信”它在“你”的用例中不如以前。我们也希望为你的用例构建更好的模型。

但总的来说,我们认为对大多数用户而言,它是一个更好、更强大的模型。但我们确实从 4-O 到 5 的升级中学到了一些东西,我们将努力在未来做得更好,无论是在保持更好的连续性方面,还是在确保我们的模型对大多数用户变得更好方面——不仅仅是那些使用 AI 从事科学、编码或其他工作的用户。

Y 问:“ChatGPT 会不会推出一个专注于个人连接和反思的版本,而不仅仅是用于商业或教育?”

Sam: 当然会。我们认为这是 AI 的一个绝佳用途。

我们为它给人们生活带来的巨大意义而深受感动。

我们所有人都会收到大量来自用户的电子邮件和信息,讲述 ChatGPT 如何帮助人们度过困难的个人处境,或帮助他们过上更好的生活。

这正是我们在这里的意义。我的意思是,这和我们做的任何事情都一样重要。

我们喜欢听到科学进步的故事,我们喜欢听到有人被诊断出疾病然后被治愈的故事。这些个人的故事对我们来说极其重要,我们为此感到兴奋,我们绝对希望提供这样的服务。

“你们的安全……”,哦,好的,这个问题有两部分,两个点赞数差不多的问题,来自 G 和匿名用户。

“你们的安全路由 (safety routing) 覆盖了我们的选择,打破了用户的信任和工作流程。你们会承诺为所有同意的成年用户撤销这种‘家长式’ (paternalistic) 的政策,停止把我们当作孩子吗?”

以及,“用户什么时候能控制路由?安全和审查的透明度在哪里?为什么成年人不能选择他们自己的模型?”

Sam: 是的,我认为我们在模型路由 (model routing) 上的处理方式并不是我们做得最好的。4-O 确实存在一些实际问题。

我们看到了一个问题,处于脆弱精神状态的人在使用像 4-O 这样的模型时,可能会陷入更糟糕的境地。

大多数成年用户使用这些模型没有问题,但正如我们所提到的,我们有义务保护未成年用户。

我们也有义务保护那些精神状态不佳的成年用户,在那种情况下,我们无法合理地判断他们是否在选择他们真正想要的,我们是否在对他们造成伤害。

随着我们建立起年龄验证机制,随着我们能够区分那些正处于真正心理健康危机的用户和那些没有的用户,我们当然希望给予人们更多的用户自由。正如我们所提到的,这是我们的平台原则之一。

所以,是的,期待这方面会有所改善。而且我认为,在我们沟通上次的发布时,这并不是我们最好的表现。

“我们如何在保护人们和允许成年人谈论困难事情(而不会感到被监管)之间找到正确的平衡?”

你想说点什么吗?

Yakob: 是的,所以,这里确实存在一个问题。我们试图在我们为 ChatGPT 制定的规范中,为模型制定高层次的政策和指导方针。

但是,你可能遇到的情景空间是极其巨大的。

在某些时候,要建立正确的边界,确实变成了一个棘手的智能问题。

我们正看到,通过推理模型 (reasoning models) 以及在思考这些更“软” (softer) 的问题和权衡时扩展更多的推理,我们在这个指标上看到了改善的结果。

当然,这比训练模型解决数学问题要困难一些。所以这是我们正在大力研究的领域。

Sam: Kate 问:“成人模式 (adult mode) 会在 12 月的什么时候推出?它是否会不仅仅包含 NSFW (Not Safe For Work) 内容?在写作时,即便是轻微的冲突也会触发 4-O 的过滤器。”

我不知道它在 12 月的具体上线时间。但我们的目标是,当你在写作、当你使用 OpenAI 或 ChatGPT 帮助你进行创意写作时,它应该在许多类别上比以前的模型宽松得多。

再说一次,我们希望这样,我们也知道用户希望这样。

如果这将成为你的个人工具,它就应该在你所做的事情上帮助你。而每一次,当你因为一些你觉得不该被过滤的事情而触发内容过滤器时,我们理解那种挫败感。

所以,我们将努力通过成人模式来解决这个问题。我们可能会面临新的问题,但我们希望给予人们更多的灵活性。

匿名用户问:“为什么你们的安全理念需要通过‘欺骗’用户他们实际在用什么模型’来实现?”

Sam: 再次声明,我认为我们这次的推出方式不当。

但我们的目标是,让人们可以继续使用 4-O,但在 4-O 表现出我们认为确实有害的行为的情况下——在我们拥有我们想要的完整的年龄门控 (age-gating) 之前——将用户切换到一个不会让他们产生我们在 4-O 上遇到过的某些心理健康问题的模型上。

4-O 是一个有趣的挑战。它是一个一些用户非常喜爱,但同时也在给另一些用户造成他们不想要的伤害的模型。

我不认为这是我们最后一次在模型上面临这样的挑战。

但我们正在努力找出平衡这一点的正确方法。

“我们会为成年人恢复旧版模型吗?不带重写 (rewriting) 的?”

重写,是的。

Y 问:“12 月的更新会正式阐明 OpenAI 对人与 AI 情感纽带的立场吗?还是会继续限制,含蓄地将这种联系定义为全球范围内的有害行为?”

Sam: 我不知道什么叫“官方立场”。

就像,我们构建了这个工具,你可以按你想要的方式使用它。

如果你想拥有一段(小写的)“关系”,并且你从中获得了对你生活很重要的同理心或友谊,对我们来说,模型能忠实地传达它“是”什么和“不是”什么,这一点非常重要。

但如果你作为用户,在那种支持中找到了价值,我们认为那太棒了。

我们为那些从这些模型获得的情感支持或其他支持中找到价值、效用和更美好生活的故事而深受感动。

Kylo 问:“为什么 OpenAI 越来越多地为免费版用户提供这么多功能?”

Sam: 这个问题我可以从产品和商业角度回答,但 Yakob,也许你从技术的角度谈谈会更有用——模型以多快的速度,用更低的价格和更少的算力,变得更强大。

Yakob: 是的,我们看到,随着我们触及智能的新前沿,我们有能力相当迅速地降低成本。

特别是对于推理模型,我们看到,即使是相当便宜的模型,当被允许一些额外的“测试时计算” (test time compute) 时,它们的能力也会变得强大得多。

是的,所以我预计这种情况会持续下去。

因此,当我们谈论进入这些新前沿、自动化研究等等时,我预计所有这些的成本都将继续大幅下降。

Sam: 所以,是的,我们谈论了很多关于模型能力的提升,而对于推动科学发展,这至关重要。

我观察到 AI 最神奇的事情之一是,在过去几年里,某个特定“智能单位” (unit of intelligence) 的价格每年大约下降 40 倍。

当我们刚推出 GPT-3 时,我们觉得它很酷,但它的成本高昂。而现在,GPT-3 规模的模型基本上可以免费运行,比如在手机上。

一个与 GPT-4 刚发布时同样智能的模型,其成本相较于现在,已经大幅下降。我们预计这个趋势将持续下去。

当然,我们仍然认为我们需要大量的基础设施,因为我们不断发现,我们能把价格降得越低,人们就越想使用它。我预计这种情况只会增加。

但我们的目标是,不断地把智能的成本降下来,让人们在越来越多的事情上使用它。

这将使我们能够继续免费提供大量功能。

但这也意味着,那些真正想在推动 AI 极限(比如治愈疾病、或研究如何制造更好的火箭)上花费巨资的人,将会投入巨额资金。

我们致力于继续将我们所能提供的最好的技术——只要我们的商业模式还能勉强维持——投入到免费层级中。你应该期待我们在未来在这方面做得更多。

好的,匿名用户问:“是否会启动年龄验证,允许用户选择退出安全路由?或者签署一份免责声明,免除 OpenAI 的任何责任?”

Sam: 我们不会做……再次强调,我们不会做相当于卖海洛因之类的事情,即使你签署了免责声明。

但是,是的,本着“像对待成年人一样对待成年用户”的原则,如果你通过了年龄验证,你将获得相当大的灵活性。我们认为这很重要,而且显然这与提问的人产生了共鸣。

匿名用户还问:“ChatGPT 是 AI 界的 Ask Jeeves (早期的搜索引擎) 吗?”

Sam: 我们当然不希望是。我们也不认为它会是。

好的,由于只剩下 10 分钟,而且其中一些问题触及了我们已经谈到过的内容,我们将跳过一些相同的问题,尝试回答更多。

在未来的问答中,如果我们这次没能回答所有问题,我们会做更多。

“就像 Macintosh……”,不,这位用户问:“就像 Macintosh 是 iPhone 的前身一样,您认为 ChatGPT 是 OpenAI 的(最终)产品,还是您认为它是一个将真正重塑世界的、更伟大产品的‘前身’?”

Yakob: 我想说,作为一家研究实验室,我们最初并没有打算去构建一个聊天机器人,尽管我们后来逐渐认识到这个产品与我们的整体使命是多么的一致。

我们当然期望 ChatGPT 继续变得更好,成为人们与日益先进的 AI 互动的方式。

但我们确实预计,AI 系统最终将能够创造有价值的“人工制品” (artifacts),能够真正推动科学进步,就像我们讨论过的那样。

我相信,这将是 AI 真正持久的遗产。

Sam: 我认为聊天是一个很棒的界面。它不会是唯一的界面。

但人们使用这些系统的方式,将随着时间的推移发生巨大变化。

如果你想想 Yakob 早些时候分享的“5 秒、5 分钟、5 小时”任务,那么如果你再想想一个“5 年或 5 个世纪”的任务——那些需要人类花费……甚至很难想象那意味着什么。

但很可能,你需要一种不同的产品体验。

我还认为,你可能希望它感觉更像一个“环境感知、始终在侧” (ambient, always-present) 的伴侣。现在,你可以问 ChatGPT 一些事情,它能为你做点什么。

但如果有一个服务,能一直在观察你的生活,在你需要的时候主动帮助你,帮你提出更好的想法,我认为我们可以朝着这个方向大力推进。

Neil 问:“我喜欢 GPT 4.5。它是目前市场上最好的写作工具,也是我付费 Pro 的主要原因。能否请您明确一下它的未来?”

Sam: 我们认为我们很快就会有比 4.5 好得多的模型,在写作方面,会好得多。

我们计划保留它,直到我们有一个在写作方面取得巨大飞跃的模型。

但是,我们认为 4.5 已经没那么好了。我们希望提供比它好得多的东西。

但可以肯定的是,我们绝对没有停止那个方向的研究。

Yakob: 是的,我们期望将它与我们正在研究的其他东西结合起来,我们将会得到在所有轴面上都显著优于 4.5 的模型。

Sam: 关于你认为我们什么时候能有一个在写作这类任务上显著优于 4.5 的模型,以及它能走多远,你有什么可以分享的时间点吗?

Yakob: 明年,我非常期待。

Sam: Lars 问:“ChatGPT Atlas 的 Windows 版本什么时候推出?”

我不知道确切的时间。我猜大概几个月。

这绝对是我们想要做的。更广泛地说,我们可以构建像浏览器和新设备这样的体验,让你随身携带 AI,实现那种“环境感知、始终有帮助”的助手,而不是你只是去查询它。这将是我们努力推进的一个非常重要的方向。

“你们会披露那 170 位专家的意见文件吗?以便我们对模型行为的新理由有一些透明度。”

Sam: 我会去问 Fiji Simo (OpenAI 首席运营官),看她希望如何处理,但我认为我们可以。我不知道我们具体能分享多少,但我认为我们应该做点什么。我认为在这方面提高透明度是件好事。

匿名用户说:“我从第二个月开始就是 Pro 用户。作为一名研究者和小说作者,我感觉 GPT 帮助我思考得更清晰……”

我把问题弄丢了。

抱歉,那是个好问题。我再找找。

“……更清晰,但‘不更自由’。想象力是否已经成为(模型)优化的牺牲品?”

你怎么看?

Yakob: 我认为,对于当前的系统来说,这绝对是可能的。比如,如果你比较像 4.5 和 4.0 这样的模型,我预料到它们之间会有权衡。

我认为这绝对是暂时的,因为我们正在摸索如何驾驭这些技术。所以我预计这会变得更好。

Sam: 是的,我认为将会出现群体规模的……我注意到的一个奇怪现象是,人们在现实生活中开始用“ChatGPT 式”的语言交谈,他们会用 ChatGPT 常用的一些“怪癖” (quirks) 说法。

我想还会有其他类似的事情,人类和技术之间会以我们无法完全预测的方式“共同进化” (co-evolution)。

但我的期望是,随着时间的推移,人们会变得更有能力、更有创造力,思考得更广阔、更深入。

我们确实看到了这方面的例子,人们会说:“我以前绝不可能在脑子里记住这些,我绝不可能有这个想法。”

然后我们也听到其他的例子,人们说:“我把我的思考外包了,我只是照着它告诉我的去做。”

显然,我们对前者比对后者更兴奋。

“你们能否帮我们理解,为什么你们构建了具有情商的模型,但当人们出于‘可访问性’ (accessibility) 的原因(在处理情绪和心理健康方面)使用它时,你们又要批评他们?”

Sam: 再次强调,我们认为这是件好事。我们希望那样。我们为此感到高兴。

但是,同一个能做到这点的模型,也可能被用来助长精神脆弱用户的妄想。

我们想要的是:人们是有意图地在使用这些模型;模型没有欺骗用户它是什么或不是什么;模型在提供帮助;模型在帮助用户实现他们的目标。

我们希望更多的是这种情况,而不是那种感觉像是模型在“欺骗” (tricking) 用户的情况——我找不到更科学的词了。

我完全理解,我们完全理解这里的挫败感。就像,每当你想阻止某件正在造成伤害的事情时,你总会同时阻止一些完全有益的用途。

但请理解我们的出发点:我们试图为那些“有意识” (aware) 并且能从中获得真正价值的成年人提供服务,同时避免在这个过程中对那些不想要它的人造成意外的伤害。

好了。鉴于我们只剩下几分钟了,让我们看看是否有一些其他方向的问题,我们应该尝试回答一下。

好的。Razi 问:“你认为 AI 导致的大规模失业何时会发生?”

Yakob: 我认为,我们已经到了一个点,现有的模型在执行许多智力工作方面所存在的差距,更多的是关于“集成” (integrations) 和“界面” (interfaces) 的问题,而不是原始的智力能力问题。

所以我认为我们必须考虑这一点。

自动化大量工作这件事,将在未来几年发生。

我认为这是需要我们所有人去集体思考的一件大事:什么样的“新追求” (new pursuits) 将取而代之?我们都将参与到哪些新的追求中去?

Sam: 这对我来说是一个问题,不是来自直播的。你认为“意义” (meaning) 将会是什么样子?你认为未来的工作会是什么样子?当 AI 自动化了大量当前的事情时,你认为我们将如何获得成就感并打发时间?

Yakob: 我预计……

这是一个相当哲学性的问题。我认为它可能有很多方向,但我预计有些事情……我认为“高层次的目标设定” (high level goal setting),比如选择我们要追求什么,这将仍然是人类的工作。而且我认为很多人会从中获得意义。

我还认为,仅仅是“能够理解”关于这个世界的更多东西,这种“新知识”的巨大多样性,以及娱乐,还有世界上的“智能”,我认为这些将为人们提供相当多的意义和满足感。

Sam: 好的,速战速决,两分钟。

Shindi 问:“GPT-6 什么时候出?”

Yakob: 我认为,在某种程度上,这更像是你的问题。

因为,我认为对于 GPD-5,以及之前的模型,比如 GPD-4、GPD-3,我们一直保持着一个非常紧密的联系,即我们如何训练新模型,以及我们发布什么产品。

正如我刚才所说,我认为现在在“集成”方面有很多工作要做。例如,GPT-5 是我们第一次真正将“推理模型” (reasoning models) 作为我们的旗舰产品。

所以,我们不再将这些发布和产品与我们的研究计划绑定得那么紧密了。

Sam: 是的。

我也不知道我们到底什么时候会那样称呼它,但我们想传达的一个明确信息是,在 6 个月后,也许更早,我们期望在模型能力上有巨大的飞跃。

Felix 问:“IPO 是否仍在计划中?那时的架构会是怎样的?是否有增加资本的规则?”

Sam: 我们没有具体的计划,或者说“这就是它将发生的时间”。但我认为,公平地说,鉴于我们未来的资本需求和公司规模,这(IPO)对我们来说是最有可能的路径。

但这并不是我们现在最关心的事情。

Alec 问:“你提到对 1.4 万亿的投资感到可以承受。你需要多大规模的收入来长期支持这一点?最大的收入驱动力将是什么?总不能只靠每个用户的订阅费吧。”

Sam: 我们最终需要达到每年数千亿的收入,我们正朝着这个目标快速前进。

我预计企业(服务)将是我们巨大的收入驱动力,但我认为消费者(业务)也同样如此。

而且它不会仅仅是订阅费,我们将有新产品、新设备以及其他许许多多的东西。

更不用说,如果 AI 真的实现了“科学发现”,那将解锁的所有收入可能性了。

随着我们看到更多那样的可能性,我们将增加在基础设施上的支出。

好的。

时间到了。非常感谢大家加入我们并提出问题。我们将努力从这种形式中学习并不断迭代,继续进行这类问答。

非常感谢。


AI 前线

GitHub Copilot:化繁为简,提升智能

2025-12-23 15:20:53

AI 前线

谷歌 142 页报告首发揭秘:90%码农每天用 AI 超 2 小时!

2025-12-23 15:20:58

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索