Greg Brockman:AGI,Sora 2,瓶颈,白领,主动式人工智能,以及更多!




内容概要

在这篇访谈中,OpenAI 的 Greg Brockman 讨论了众多话题,包括像 Sora 2 这样的大模型如何扩展、Transformer 架构的未来、算力稀缺和能源瓶颈带来的挑战,以及 OpenAI 内部如何决定资源分配。他还分享了随着 AI 代理的兴起,人类与互联网的关系将如何演变,并探讨了向主动式 AI 的转变、“压缩智能”的概念,以及在 AI 驱动的世界中,工作和软件开发的未来,其中也包括了“代理商务协议”(Agentic Commerce Protocol)。最后,Brockman 分享了他对通用人工智能(AGI)实现时间线的看法以及其持续发展的本质。


目录

  • 引言

  • Sora 的规模化挑战

  • Transformer 模型是未来吗?

  • 与 AMD 合作构建生态

  • 其他类型的计算硬件

  • 发展的瓶颈

  • 如何决定投资方向

  • 互联网体验的解构

  • 为什么 ChatGPT 与众不同

  • 主动式 AI

  • 压缩智能

  • ChatGPT 史上最长的思考

  • Sora 2

  • 我的工作会受影响吗?

  • 基于 OpenAI 进行构建

  • 人类在环(Humans in the loop)

  • 完全由 AI 生成的软件

  • 代理商务协议(Agentic Commerce Protocol)

  • 2026 年的展望

  • 通用人工智能(AGI)


引言

主持人: 欢迎回到节目。今天,我们请到了一位非常特别的嘉宾,Greg Brockman 博士。

Greg Brockman: 非常感谢你的邀请,很高兴来到这里。


Sora 的规模化挑战

主持人: 我有很多问题想问你。首先,我想从模型的规模化,特别是 Sora 开始。Sora 2 上周发布了,请问扩展像 Sora 这样的模型是怎样的体验?它与文本或图像模型有何不同?

Greg Brockman: 从根本上说,我认为所有这些模型都仍然基于深度学习(deep learning),其核心机制和底层原理是相同的。你需要投入海量的计算资源,进行前向传播、反向传播和梯度下降。

在更细节的层面上,它仍然是一个 Transformer 模型,这一点其实相当令人惊叹。当然,训练方式有所不同,你可能会使用像扩散(diffusion)这样的技术,这是一种将算力注入模型的新思路。但最让我惊奇的是,尽管文本和视频是两种看起来截然不同的模态,但学习和生成它们所依赖的底层计算过程却有大量的重叠。这背后一定有非常深刻的原因。


Transformer 模型是未来吗?

主持人: 所以你非常看好 Transformer 架构能带领我们进入下一个阶段,甚至实现完整的世界模型(world models)吗?Sora 2 显然是朝这个方向迈出了一大步。

Greg Brockman: 是的,我认为有两点。第一,很多人在问我们是否错过了什么重大理念,是否需要像 Transformer 那样级别的再次创新。我认为创新的空间还很大,而且我们也看到了算法的进步一直没有停止。多年来的研究表明,无论是模型扩展曲线还是数据增长曲线都在持续向上,正是这些因素共同推动了这场革命。

第二,我认为未来还有很多东西有待构建。如果通用人工智能(AGI)最终看起来和我们今天的模型有些相似,我不会感到意外;但如果它的架构和今天完全一样,那我才会感到震惊。

主持人: 尽管这些模型都基于 Transformer,但它们在成本上有显著差异吗?你如何衡量不同类型模型的单位经济效益?

Greg Brockman: 它们的性能特征确实不同。有时我们需要为不同的模型配备不同的推理堆栈,优化策略也各不相同。某些模型可能更适合特定类型的硬件,内存与计算之间的精确平衡点也因模型而异。因此,在细节层面,系统性的工作会大相径庭。当你试图从硬件中压榨出极致性能时,它会把你推向完全不同的方向。

但归根结底,我们认为算力是驱动所有创新的根本动力。虽然不同加速器在专业化方面各有侧重,但从宏观上看,它们都在做矩阵乘法和注意力机制之类的计算。因此,我们在内部需要做大量的资源调配工作,以平衡不同模型的优化需求。这很困难,但这就是我们的使命。


与 AMD 合作构建生态

主持人: 让我们继续讨论硬件。你们和 AMD 宣布了重要的合作。在 AMD 的硬件上进行开发有什么根本性的不同吗?还是说只是多了一个庞大的资源池?这其中是否需要进行深入的技术调整?

Greg Brockman: 实际上,我们多年来一直在对 AMD 的软件生态进行投资,因为我们的很多工作都建立在 Triton 之上。Triton 是我们发起并帮助开发的一个项目,我们绝大多数的 GPU 实际上都在运行 Triton 内核。

我认为可以从推理(inference)和训练(training)两个方面来看。让推理正常工作有巨大的固定成本,而让训练正常工作的成本则更高。目前,我们只需少量工作就能在 AMD 的硬件上获得良好的性能。这很大程度上得益于我们长期的合作关系和持续的反馈。从推理的角度来看,我们对规模化扩展感觉良好,不同硬件在生态中也各有其位。我们对 MI450 系列充满期待,它包含了很多优秀的创新。当然,我们也会继续大规模采购英伟达(NVIDIA)的芯片用于推理和训练。


其他类型的计算硬件

主持人: 你们是否考虑过像 Cerebras 或 Grock 这样更前沿的公司,它们专注于晶圆级计算(wafer scale computing)?

Greg Brockman: 是的。早在 2017 年,当我们看到 Cerebras 时就感到非常兴奋,因为它代表了一种全新的范式。你看到那些数据时会想:“哇,如果我们有一百万个这样的东西,我们就能造出 AGI 了。” 你会意识到这是一个完全不同的平台。

事实证明,构建非 GPU 架构比我们 2017 年预想的要困难得多。但从一开始,我们就对整个生态系统进行了布局,与所有芯片公司交流,并根据我们的工作负载形态提供建议。然而,当时大多数公司并不采纳我们的意见。2017 年的 OpenAI 和今天大不相同,但即便在今天,人们也未必总会听取我们的建议。

这并非因为他们认为我们是错的,而是因为来自芯片领域的人有他们固有的看待问题的方式。当你告诉他们需要从大模型的角度去思考,而不是小模型时,如果他们不认同这个前提,就很难重构自己的世界观。因此,我认为在这个领域成功的公司,往往是那些真正引入了深度学习视角,并密切关注工作负载发展趋势的公司。


发展的瓶颈

主持人: 从构建计算设施到提供推理服务的整个流程中,你认为目前最大的瓶颈是什么?

Greg Brockman: 我认为我们正迈向一个算力绝对稀缺的世界。在美国,能源肯定会成为一个巨大的瓶颈。此外,供应链的许多环节也尚未适应我们预见的这种需求冲击。这就是为什么我们多年来一直反复强调:“我们需要建设更多的算力设施。”

主持人: 有传言说 OpenAI 正在开发自己的芯片,那么你们是否会考虑投资自己的能源网络或在这方面进行创新呢?

Greg Brockman: 如果回到 2015 或 2016 年问我,我会说我们只是在构建 AGI,这纯粹是一个软件项目。我们以为只要有了新想法,把它实现,AGI 就诞生了。但后来我们发现,这其实是一个算力问题。算力是一种比其他任何东西都更容易规模化的基础资源,所以你必须把它推向极限。

接着你又会意识到,这背后需要大规模的物理基础设施建设。所以我们现在开始涉足这个领域,比如通过 Stargate 项目建设自己的数据中心。至于这个过程会延伸到多远,取决于整个世界愿意提供多少支持。如果市场能够响应我们大声疾呼的需求——不仅是我们的需求,而是整个行业的需求——那当然最好。我宁愿不必亲自去解决能源问题,但为了完成使命,我们愿意做任何必要的事。


如何决定投资方向

主持人: 在 GPU 和算力都有限的情况下,你们面临着消费产品、企业服务、开发者 API 和模型训练等多方面的冲突需求。在 OpenAI 内部,你们是如何决定算力投资的优先级的?

Greg Brockman: 过程充满了痛苦和挣扎,这是实话。因为你总能看到各种绝妙的想法,每个人都带着同样精彩的项目来找你,你也很想支持。

主持人: 你们的业务范围如此之广,这一定很困难。我们这样的小公司在决定做什么时都会举棋不定,我无法想象 OpenAI 的规模下会是怎样的情景。能多分享一些内部讨论的细节吗?

Greg Brockman: 具体的决策机制多年来一直在演变。目前,我们的首席科学家和研究负责人会共同决定研究方面的算力分配。但在更宏观的层面,我们会先在研究和应用之间进行划分,这个决策通常由 Sam 和其他高层共同做出。

在执行层面,我的团队里有一些人专门负责调配 GPU 资源。比如,当一个新项目急需 GPU 时,团队成员会分析哪些项目即将结束,然后像玩俄罗斯方块一样,巧妙地安排资源。观察这个过程非常有趣,它不仅关乎意图(我们想把算力用在哪里),也关乎实际的解决过程,其中既有人工决策,也有复杂的表格计算。未来我们或许会让模型也参与进来。

这是一个复杂的过程,但算力直接关系到团队的生产力,所以大家对能否获得算力资源的情绪和关注度都非常高。


互联网体验的解构

主持人: 让我们换个话题。你们宣布将网页体验融入 ChatGPT,并展示了 Zillow 的例子。随着越来越多的应用以更原生的方式迁移到 ChatGPT 中,你如何看待这种正在发生的人与互联网体验的“解耦”?随着代理(agents)越来越多地代替我们浏览网页,人类访问传统网站的时间似乎在减少。你认为未来 18 个月会是什么样子?

Greg Brockman: 在此之前,我想补充一点。我认为未来算力将成为整个经济体的生产力驱动引擎。我们在 OpenAI 内部看到的这种资源分配的微观景象,未来将在各行各业上演。因此,建设更多算力设施是为了缓解未来的算力稀缺和资源冲突。

主持人: 你认为目前算力的供需比例是多少?差距有多大?

Greg Brockman: 我认为差距还相当大,可能是几个数量级的差别。如果我们现在能将算力供应增加 10 倍,收入能否也增加 10 倍?我不确定,但增加 5 倍或许是可能的。因为我们有很多产品因为算力不足而无法发布,比如 Pulse,目前仅限于专业版用户。

主持人: Pulse 是个很棒的产品。

Greg Brockman: 是的,我们需要更多算力。

主持人: 好的,回到互联网“解耦”的话题。我们浏览互联网的基本方式似乎正在发生巨变,特别是当代理可以代表我们浏览,以及传统网站被集成进 ChatGPT 之后。你对此有何看法?

Greg Brockman: ChatGPT 让你意识到,访问一个静态网站仅仅为了阅读信息是多么不自然。你只是想找一个事实,却不得不在一个充满无关信息的大页面里筛选。我们应该超越这种模式了。你过去花费大量时间做的这种筛选工作,其实并没有创造价值,就像大海捞针,这本该是机器的工作。

随着动态应用在 ChatGPT 中的出现,你会发现,去一个网站点击一堆按钮来完成一个动态任务,同样感觉是一种过时的交互方式。我们正进入一个人们会更珍惜自己时间的世界,因为那些不能增加价值、不需要人类深度思考或创造力的重复性工作,都没有理由再由人来完成,那正是 AI 的用武之地。

主持人: 这种变化将如何影响网络的商业模式?传统上,网站依靠广告和用户的浏览量(眼球经济)来变现。但当代理代替你浏览,或者像 Zillow.com 被直接整合进 ChatGPT 后,广告的呈现方式就会成为一个问题。你认为网络的商业模式会如何演变?

Greg Brockman: 说实话,我认为现在还没有人知道确切的答案。但我们可以预见,我们将不得不探索新的模式。这些新技术带来的压力,会迫使平台必须确保为用户创造价值。以 ChatGPT 为例,它目前是订阅制产品。三年前我们推出它的时候,可能并未预料到这一点,但人们愿意付费,因为它在工作和生活中都创造了价值。

这并不是说广告没有立足之地,但那种仅仅因为你在页面上漫无目的地滚动,碰巧看到并点击的广告模式,似乎不再是价值的核心驱动力了。我相信未来会出现新的收入模式和变现方式,这可能是迄今为止最激动人心的创业时代。


为什么 ChatGPT 与众不同

主持人: 十多年前,在移动互联网转型期间,许多内容出版商因为入驻苹果应用商店而受制于苹果。你认为这次有什么不同?ChatGPT 会不会成为人们通往人工智能体验的唯一入口或主页?

Greg Brockman: 我认为未来的剧本还未写就。我对 AI 的一个观察是,它的发展总是出人意料,与我们之前见过的任何事物都不同。它或许有过去技术的影子,但你无法简单地说“它就像互联网”或“它就像移动应用商店”。

你希望如何与 AI 交互?是通过一个网站作为所有互动的中介吗?我并不确定。因为 AI 的核心价值在于让机器更贴近人,而不是让人去适应机器的逻辑,比如记住网址。机器应该能理解你的指令,甚至主动预测你的需求并为你完成任务。这种范式的转变,很可能会改变我们对入口和机会的看法。这里的可创造空间如此之大,我不认为一个单一的门户能够承载所有交互。


主动式 AI

主持人: 我想就此深入探讨一下。你认为我们距离 AI 能够预测我们大部分需求还有多远?ChatGPT 刚推出时是反应式的,你提问,它回答。现在有了像 Pulse 这样的功能,它开始变得更加主动。在未来 24 个月里,你认为主动式和反应式的比例会如何变化?

Greg Brockman: 我认为主动式将逐渐成为焦点。比如,你给 AI 一个小任务,它会花一天、一周甚至一个月去思考和执行。我们的目标是构建能够进行长达一年甚至十年深度思考的 AI。

主持人: 在这一年里,完全不需要人类干预吗?

Greg Brockman: 我们可以类比人类解决难题的过程,比如 Andrew Wiles 证明费马大定理,他花了近十年时间,但这期间并非完全没有与人交流。他会思考子问题,并与他人讨论。我们希望 AI 也能如此,帮助我们解决宏大的科学问题,而不是需要我们时刻进行微观管理。

与人类不同的是,AI 不会因为被微观管理而感到不快。所以,未来的工作模式将更加灵活,你可以选择在哪个环节投入自己的时间。


压缩智能

主持人: 我看到很多宣传说“我们的新 AI 可以独立思考 X 个小时”。你如何看待 AI 自主思考的时长与它在期间完成任务的质量之间的权衡?如果它花 30 个小时计算 1+1,这和解决癌症问题是两码事。你如何看待在给定时间窗口内“压缩智能”以及延长这个窗口两者之间的关系?

Greg Brockman: 这是个好问题。有些基准测试确实容易产生误导。我认为,有些问题天生就具有更高的计算复杂度,需要更多的思考和算力。我们既希望 AI 能花一天时间去解决一个难题,也希望它能在 10 秒钟内就给出答案。所以,这其实是两个不同的维度,我们必须在两个方向上同时推进。


ChatGPT 史上最长的思考

主持人: 那么,到目前为止,在完全自主的情况下,GPT-5 或 Codeex 模型思考过的最长时间是多久?

Greg Brockman: 我其实不确定记录是多久。我记得我们公布过,有人报告说看到过 7 小时的记录,但我不确定那是不是上限。我们现在已经到了能够为一些有趣的问题投入大量算力的阶段了。


Sora 2

主持人: 让我们聊聊 Sora 2,它非常有趣。从 Sora 1 到 Sora 2,你们为什么决定把它打造成一种社交体验,而不是像一代那样,以一种更传统的方式发布供用户使用?

Greg Brockman: 我们通常根据模型本身的能力来决定构建什么样的产品界面。这和我们当初开发 ChatGPT 的过程很像。当我们有了 GPT-4 并完成初步训练后,我尝试让它在回答一个问题后,接着回答一个依赖于前文情境的新问题。我发现它能够很好地泛化,并利用上下文信息。那一刻,你就会觉得:“哇,这个模型太聪明了,它天生就想成为一个聊天模型。”

对于 Sora 2 也是如此。我们会分析模型的优缺点,思考它能带来哪些全新的可能性。当然,我们有很多方向可以选择,但任何一个产品界面或后续训练,实际上都在某种程度上限制了原始模型(base model)的巨大潜力。

主持人: 这很有趣。

Greg Brockman: 是的,原始模型就像一个充满无限可能性的宇宙,虽然极难使用。

主持人: 将它打造成社交产品的决定是在后续训练之前还是之后?还是说你们在过程中发现它有模仿的天赋?

Greg Brockman: 这通常是一个迭代的过程。你会先探索原始模型的能力,发现一些有趣的特性,然后想:“如果这个功能能变得可靠,不需要复杂的提示词就好了。” 原始模型是最好的原型引擎,但并不可靠。后续训练(post-training)就是为了解决这个沟通问题。

主持人: 你的 Cameo(名人视频)是公开的吗?

Greg Brockman: 目前没有。

主持人: 我把我的公开了。Sam Altman 也提到过,让别人使用你的肖像进行创作,感觉比想象中要自在。

Greg Brockman: 是的,这很有趣。其实我没太在意我的 Cameo 状态,因为我预计 6 个月内,不管我们做什么,都会有其他公司发布不受限制的视频模型。我们正走向一个每个人的肖像都可以被使用的世界。OpenAI 的立场是,我们希望让人们了解技术的发展方向,并以有益的方式发布它。但我们也清楚,我们无法完全控制这项技术,因为我们不是唯一的开发者。

主持人: Sora 2 是一个世界模型,能够模拟世界。但 Yann LeCun 曾说,仅凭语言模型(LLM)不足以达到 AGI,因为语言本身不足以模拟世界。你同意吗?世界模型在通往 AGI 的道路上扮演着怎样的角色?

Greg Brockman: 我倾向于看过去 5 到 10 年 AI 发展的经验证据。很多人曾认为,语言模型无法建立世界模型,因为书面语言中的信息不足。这个争论已经持续了几十年。但如果按照这个逻辑,GPT-4 的很多能力本应是不可能实现的。比如,你问它关于空间位置的推理问题,它现在基本都能答对。

这说明了什么?即使它在某些超级复杂的任务上还不是 100% 可靠,但它展现了一条清晰的进步轨迹。所以我认为,与其陷入“什么是理解”的语义争论,不如看实际表现。当我们看到模型在一个个曾被认为不可能的任务上不断进步,甚至超越人类时,我认为它就已经掌握了相应的能力。这就像 Sam Altman 说的,智能在很大程度上就是预测。

主持人: 这似乎也支持了大型语言模型最终能够实现 AGI 的观点。


我的工作会受影响吗?

主持人: 那么,我想自私地问一句:我的工作有危险吗?MrBeast 说 AI 对内容创作者的生计构成了威胁,而我现在的工作就是这个。我应该担心吗?

Greg Brockman: 我认为 AI 确实会改变很多工作。有些现在很普遍的岗位,未来可能会以一种面目全非的方式存在,甚至完全消失。同时,也会创造出我们现在无法想象的新工作。

从根本上说,我认为这次 AI 革命将改变社会契约的许多基本面。我们将进入一个物质极大丰富的世界,即使你不从事经济活动,也应该能享受到高品质的生活。而对于那些努力拼搏、追求成就的人来说,将会有更多的机会去创造和实现价值。

诚实的回答是,没有人确切知道 AI 事件视界(event horizon)的另一边是什么。但我确信,未来会比我们现在想象的更加奇特,也可能更加美好。

主持人: 我才刚开始我的工作,希望能保住它。

Greg Brockman: 我认为有些领域是 AI 难以取代的,比如人与人之间的情感连接。此外,像水管工、电工这类技术性行业,目前本就人手短缺,让 AI 在这些领域创造价值将会非常困难。


基于 OpenAI 进行构建

主持人: 让我们谈谈 Codeex 和其他 OpenAI 的产品。在一个开发者大会上,你们宣布了 Agent Kit。对于在 OpenAI 平台上进行开发的开发者来说,他们应该如何看待潜在的平台风险?我知道有种说法是“OpenAI 每开一次开发者大会,就有一千家创业公司倒闭”。

Greg Brockman: 我们经常被问到这个问题,也思考了很多。我们的最终目标是帮助世界过渡到 AI 优先的经济模式,并让每个人都从中受益。我们无法独自完成这个目标,绝对需要与开发者合作,让他们在我们的平台上构建应用,将技术与现实世界连接起来。

我们必须有所选择。尽管我们有几千名员工,但与整个经济的体量相比,我们仍然非常渺小。我们必须明智地选择那些能产生协同效应、并且我们具备专业知识的领域。一个很好的例子是编程。我们了解编程,而且如果我们把编程工具做得更好,也能加速我们自己的工作。因此,我们的策略是尽可能地赋能更多的人,然后在我们能够真正创造价值的特定领域进行深耕。

主持人: 你认为代码是 AGI 的语言吗?

Greg Brockman: 这是个好问题。我个人认为,自然语言将是 AGI 的语言。它们之间交流时,可能会使用一种更优化的英语。比如,我们今年在国际数学奥林匹克竞赛(IMO)上取得金牌的数学证明,那些证明过程的可读性很强,但语言非常精炼,就像 AI 发明的一种有趣的方言。


人类在环(Humans in the loop)

主持人: 人类会在这个循环中存在很长时间吗?我看到随着模型越来越强,人类在中间环节的作用在减少,但在最初的提示和最终的验证环节仍然不可或缺。这种情况会永远持续下去吗?

Greg Brockman: 我认为这项技术的根本目的是造福人类,乃至所有能够体验快乐的生命。AI 应该赋能每一个人。这意味着,我们不希望未来人们还需要费力地编写提示词或进行上下文工程。这些机械的细节感觉像是过去的计算机,而不是未来的计算机应有的样子。

我希望,世界也应该希望,AI 工具能够让机器更贴近人类,理解你的目标,并帮助你实现它们。这才是关键。确保我们提升全人类的福祉,这是 OpenAI 的核心使命。


完全由 AI 生成的软件

主持人: 作为一个经常思考编程的人,你认为软件有一天会完全由 AI 生成吗?从操作系统到屏幕上的每一个像素,都实时生成?

Greg Brockman: 我想是的,而且那会非常酷。想象一个完全由生成式 UI 构成的世界,就像一个实时的 Sora,你可以在其中进行交互。那里还会有按钮吗?最自然的交互方式是什么?这让你开始意识到,我们现在构建的许多界面,其实都受限于当前操作系统的特性。但如果能从零开始重新构想,没有历史包袱,世界会是什么样子?我不知道答案,但我保证它会完全超出我们的想象。

主持人: 在那样的未来里,还会有开发者或应用程序吗?

Greg Brockman: 看看 Sora 的例子。我记得在一个宣传视频里,Bill 驾驶着雪地摩托,然后摘下头盔。我当时想:“哇,他雪地摩托开得真好。” 但马上意识到,他根本没做这件事。这说明人类参与的方式变了。他仍然参与了创作过程,贡献了他的想法和形象。当你用某人的形象制作一个 Sora 视频并分享时,其中蕴含的人性元素会让其他人也产生共鸣。

我们从今年的图像生成热潮中学到了这一点。如果只是生成一张毫无根基的图片,没人会在意。但如果它是把你家小狗的照片变成了动漫风格,人们就会很感兴趣,因为其中有人性的连接。

我想软件也是如此。人们会继续创造应用,因为他们对一个动态系统该如何工作有自己的想象。AI 会成为你的开发者,为你编写代码,但最终的创意和分享仍然源自于你。

主持人: 这听起来,未来“品味”或者说策划优质人类体验的能力,会比实际开发的硬技能更重要。

Greg Brockman: 我认为大体上是这样。当然,一些技术性技能仍然重要,我们看到那些真正深入探索模型能力的人,总能获得更好的结果。但从根本上说,知道自己想要什么,拥有良好的判断力和品味,将是至关重要的。


代理商务协议(Agentic Commerce Protocol)

主持人: 你曾是 Stripe 的首席技术官,现在又宣布了“代理商务协议”(Agentic Commerce Protocol)。这个想法是早就有了,还是最近才发现的一个新方向?

Greg Brockman: 在这个领域,其实没有全新的想法。这些概念人们已经思考了很久。真正不同的是,现在的模型终于强大到足以让这些想法成为现实。就像几年前我们推出的插件(plugins)功能,当时模型还没准备好,同时激活超过三个插件就会让它感到困惑。今天的模型比那时可靠得多。所以,是时机成熟了,而非想法本身是新的。

主持人: 你会通过 ChatGPT 购物吗?我知道 Sam 会。

Greg Brockman: 有趣的是,我本人不怎么购物。所以可以说,我最近 100% 的购物都是通过 ChatGPT 完成的。


2026 年的展望

主持人: 让我们展望一下未来。从去年的开发者日(发布 GPT-4o)到现在,发生了太多变化。明年的 2026 开发者日会是什么样子?2030 年呢?

Greg Brockman: 这是很难回答的问题。但我确实认为,明年我们会拥有一些令人难以置信的模型。我最期待的里程碑是,模型能够解决真正困难的问题。就像 2016 年 AlphaGo 的第 37 手,改变了人们对围棋的理解。想象一下,同样的事情发生在编程、材料科学和医学领域。我认为我们将开始看到由 AI 独立或在顶尖人类协助下取得的真正突破。

这对开发者来说,其价值几乎无法估量。你将能够为金融等任何领域的客户构建能够解决其最棘手问题的应用。当然,这会消耗大量算力,所以我们必须确保这些应用能创造足够的经济价值。

至于 2030 年,那就更难预测了。那时可能已经超过了很多人对 AGI 实现的预期时间。

主持人: 你对 AGI 实现的时间预期是多久?

Greg Brockman: 我认为大概在 1 到 3 年的范围内,可能更接近 3 年。但如果到 2030 年我们还没实现,我会觉得是哪里出了问题。


通用人工智能(AGI)

主持人: 你对 AGI 的定义还是“能够完成大多数有经济价值的人类工作”吗?你的定义有变化吗?

Greg Brockman: 我认为最根本的变化是,我过去把它看作一个终点,我们创建 OpenAI 就是为了完成这个使命。但现在,我们更成熟地把它看作一个持续的过程。那个能够与人类在经济价值工作上匹敌的特定节点,确实是一个重要的里程碑,但它不是终点。

真正重要的是后续的发展。人们的讨论正从 AGI 转向超级智能。对我来说,最重要的不是这些词汇,而是我们能否推动 AI 进步,能否提升整个经济,能否真正将这些好处带给人们。这需要我们思考安全等核心问题,并将整个过程端到端地考虑清楚。

我相信,在不远的将来,我们会达到一个回望过去时,会说“这基本上就是我们 2018 年所说的那个东西”的时刻。

主持人: 好的,非常感谢你,Greg Brockman。


AI 前线

Qwen3-Embedding 全揭秘:从技术到服务,打造高效 AI 产品的关键路径

2025-12-23 22:34:18

AI 前线

全球大模型季报:“犹太人的金融,华人的 AGI”

2025-12-23 22:35:22

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索