#定义 AI 工程师 - Greg Brockman, OpenAI (ft. Jensen Huang)




内容概要

本视频记录了 OpenAI 的 Greg Brockman 的职业生涯与思考。他分享了自己从早期对编程产生兴趣、大学辍学,到联合创办 Stripe,再到后来投身 OpenAI 的完整历程。他深入探讨了自主学习的力量、深度学习与通用人工智能 (AGI) 的发展、OpenAI 内部工程与研究的独特关系,以及人工智能对软件开发带来的变革,包括“氛围感编程 (vibe coding)”和 AI 基础设施的未来。


目录

  • Greg Brockman 的成长之路与自主学习的力量

  • 加入 Stripe 与创业公司的艰辛奋斗

  • 自主学习的力量

  • 探索机器学习与对 AGI 的信念

  • OpenAI 的工程与研究文化

  • OpenAI 在规模化中面临的挑战与成功

  • 氛围感编程与软件工程的未来

  • Codex 对编程实践的影响

  • 规模化的瓶颈与 AI 基础设施的未来

  • AGI 时代下开发工作流的演变


Greg Brockman 的成长之路与自主学习的力量

主持人: Greg,欢迎来到 AI 工程师大会!非常感谢你抽出时间。

你从小接触戏剧,也学习化学和数学,后来因为编写一个日历调度应用而进入编程领域。究竟是什么真正点燃了你对编程的热爱?

Greg Brockman: 有趣的是,我曾以为自己长大后会成为一名数学家。我读过伽罗瓦 (Galois) 和高斯 (Gauss) 等人的故事,他们着眼于长达百年甚至数百年的时间尺度进行研究,这曾是我的理想。

高中毕业后,我写了一本化学教科书,把它寄给了一位在数学领域有类似经历的朋友。他说:“这本书没人会出版的。你要么自费出版——但这听起来工作量巨大,还需要很多资金;要么就建一个网站。”

我想,那我就学着建网站吧。于是,我真的去了 W3 Schools 网站,学习了他们的 PHP 教程。

我做的第一个东西是一个表格排序的小部件。我清楚地记得,当我点击列标题,表格真的按照那一列排序时,那种感觉就像魔法一样。我立刻意识到,编程太酷了。数学的思维过程是,你深入思考一个问题,理解它,然后用一种晦涩的方式写下来,称之为“证明”,但可能只有三个人会关心。而编程则是,你同样用一种晦涩的方式写下来,称之为“程序”,也许也只有三个人会读懂代码,但每个人都能享受到它带来的好处。你脑海中的想法变成了现实,存在于这个世界。那一刻我便认定,这就是我想做的事,我只想创造。


加入 Stripe 与创业公司的艰辛奋斗

主持人: 你编程能力非常出色,以至于还在大学时就收到了 Stripe 的一封“冷邮件”。这背后有什么故事?他们是怎么找到你的?又是什么说服你辍学加入他们?

Greg Brockman: 我和当时 Stripe 的所有人都有共同的朋友——那时它还是一个只有三个人的“大”公司。他们按照惯例,在哈佛大学询问一些人,校园里有哪些值得招募的编程人才,我的名字就这样被提到了。巧的是,他们在麻省理工学院 (MIT) 也问了同样的问题,因为我当时已经从哈佛辍学去了 MIT,所以算是两边都得到了推荐。

我记得见到 Patrick (Stripe CEO) 的那天,是一个暴风雨的深夜,我刚下飞机。我们一见面就开始聊代码,那一刻我感觉,他就是我一直在寻找的、渴望与之共事的伙伴。于是,我最终从 MIT 辍学,飞到这里,一直待到了现在。

主持人: 这里有一个来自 Matthew Brockman 的问题,他是 Julius AI 的 CTO。他问:“你觉得我们的父母什么时候才会放弃让你完成学业的念头?”

Greg Brockman: 呃,永远不会吧。我想,无论你去哪里,告诉父母你要离开哈佛都是一件难事,更何况是彻底辍学。

但值得称赞的是,尽管他们觉得很难接受,但还是选择相信我,他们认为我一定看到了他们从大半个国家之外看不到的东西。后来,我在 Stripe 工作得很开心,学到了很多东西,公司也发展成了一家真正的企业,而不仅仅是辍学后无所事事。我想他们慢慢接受了,并且现在应该为我感到骄傲。

主持人: 当然。你在 Stripe 的时间里,公司从 4 人发展到 250 人,你最终成为第一任 CTO。我最近发现一个 Hacker News 上可能不太为人知的事实:所谓的“上门安装代码”其实只发生过屈指可数的几次,并非 Stripe 的常态。

Greg Brockman: 我想这应该是真的。

主持人: 这成了一个都市传说,因为它听起来太酷了,体现了极致的客户至上。那么,关于早期 Stripe,人们还有哪些误解?

Greg Brockman: 我想大家可能不了解创业初期有多艰难。我们当时把所有客户都加到了 Gchat (Google Talk) 上,与他们保持着持续的沟通,这几乎相当于时刻在他们身边。

我记得有一次,我们意识到当时的支付后端无法扩展,必须迁移到富国银行 (Wells Fargo) 的系统上。我们谈妥了合作,但技术对接却被告知需要 9 个月。我们觉得这太疯狂了,作为一家创业公司,根本等不了那么久。

于是,我们把它当作大学的课题作业,在 24 小时内完成了对接。我负责实现所有功能,John 从上到下编写和运行测试脚本,指出哪里有问题,Daryl 则从底层向上推进。第二天早上,我们和对方的认证人员开会,发送测试消息时出现了一个错误。对方说:“好吧,我们下周再见。”因为他们的客户通常都是这样,出了错就需要开发团队去处理。

但我们不甘心,Patrick 一边想办法拖住对方,一边让我们疯狂地修改代码。我们大概尝试了五次,还是失败了。幸运的是,对方人很好,同意两小时后重试,最后我们成功了。就这样,我们在极短的时间内完成了正常情况下需要六周才能完成的开发工作,因为我们没有接受那些所谓的行业惯例和限制。

主持人: 你认为在大多数工作中,是否也存在类似的机会?你如何建议他人变得如此高效,或者说能够跳过那些不必要的流程?

Greg Brockman: 我认为,如果你从第一性原理出发思考,就能分辨出哪些事情是必须按部就班、遵循常规的。但“无视所有限制,直接去做”这个原则并非 100% 正确。关键在于,你要找到那些因为过时或不适用于你当前情况而产生的、不必要的开销和流程,并消除它们。尤其是在今天这个 AI 极大提升生产力的时代,这种思维方式尤为重要。


自主学习的力量

主持人: 在加入 OpenAI 之前,你的生活中有一个反复出现的主题——自主学习。从高中到后来的休假,你一直在这样做。是什么让你的自主学习如此高效?很多人可能会因此浪费一年时间。

Greg Brockman: 这其实是我成长过程中的一个关键部分。六年级时,我父亲教我代数。七年级开学时,我本应进入高中的初级代数班。我们去问老师,我是否能跳过这一级,直接上八年级的课程。老师轻蔑地看着我和我妈妈说:“每个家长都觉得自己的孩子很特别。”

但在那个老师的课上过了一个月后,情况变了。我上课从不听讲,总是在后面玩计算器游戏,但每当她想为难我,让我回答白板上的问题时,我总能答对。她最终承认:“好吧,你的孩子确实应该跳级。”

到了八年级,我所在的中学已经没有更高级的数学课了。因为没有车,我只能上在线课程。结果在那一年里,我完成了高中三年的数学内容。

对我来说,这意味着当你对某件事充满热情,并独立探索时,你完全可以打破常规的限制。一年学完三年的数学,这种优势会不断累积。接下来几年,我在高中很快学完了所有数学,之后的时间里,我就开车去北达科他大学选修任何我感兴趣的课程。这种经历不断叠加,最终引导我学习了编程。我学编程的方式也主要是自学,通过动手创造和体验来学习。

所以我的建议是:如果你有机会去探索自己真正热爱的事物,那就深入下去。当然,过程不总是充满乐趣,你可能会感到厌倦,但只要坚持跨过那些障碍,回报绝对是值得的。


探索机器学习与对 AGI 的信念

主持人: 你也是通过自学进入机器学习领域的,对吗?那段经历中有哪些亮点?听说你曾和 Jeff Hinton 交流过。

Greg Brockman: 是的,我和 Jeff Hinton 聊过。

主持人: 那次交流对你有帮助吗?或者说,是什么让你最终成为一名机器学习从业者?

Greg Brockman: 当我还在 Stripe 时,经常在 Hacker News 上看到关于深度学习的帖子,感觉每天都有新进展。那是 2013、2014 年的时候,我很好奇深度学习到底是什么。我认识这个领域的一个人,通过他,我认识了更多的人。让我惊讶的是,我发现大学里那些最聪明的朋友,最终都进入了这个领域。我开始意识到,这里面一定有真实的技术突破正在发生,人们在让计算机完成一些前所未有的事情。

离开 Stripe 后,我知道自己想在 AI 领域做点什么,但还不清楚自己的技能能用在何处。当时我在纽约,决定自己组装一台 GPU 设备,去参加一些 Kaggle 竞赛。我在 Newegg 上买了几块 Titan X 显卡,亲手组装机器的感觉非常酷。2015 年,当我第一次启动它,看到绿色的灯光和风扇转动时,我心想:这才是计算机该有的样子。

主持人: 是什么让你相信通用人工智能 (AGI) 是可能实现的?你曾一度对此感到失望,尝试写聊天机器人却失败了。后来是什么让你全力以赴?

Greg Brockman: 我的一个重要转折点是读了艾伦·图灵 (Alan Turing) 1950 年的论文《计算机器与智能》,也就是提出图灵测试的那篇。他在这篇论文里不仅提出了图灵测试,即通过人机对话来判断机器是否具有智能,更提出了一个深刻的观点,虽然这个观点并未像图灵测试那样广为人知,但对我启发极大。

他问:我们该如何编程来实现这种智能?你永远无法写下所有的规则。但是,如果我们能创造一个像人类儿童一样学习的“儿童机器”,通过奖励和惩罚来教育它,它最终不就能通过测试了吗?

我意识到,这才是我们必须创造的技术。作为程序员,你必须理解解决问题的所有规则,但如果机器能够理解和解决连你自己都无法理解的问题,那将是根本性的突破,是解决人类重大问题的方式。

大约在 2008 年,我读完这篇论文后,去找我的自然语言处理 (NLP) 教授,希望能和他一起做研究。他给了我一些语法分析树 (parse trees)。我一看,心想,这根本不是图灵说的那回事。那段时间我确实有些失落。

但深度学习的出现改变了一切。2012 年的 AlexNet 在 ImageNet 竞赛中一鸣惊人,它证明了一个通用的学习机器,虽然带有一些卷积的先验知识,却能胜过计算机视觉领域 40 年的研究成果。随后,人们从“这只在视觉领域有效”的怀疑,到看着它在机器翻译、NLP 等各个领域都取得最佳效果。不同学科之间的壁垒被打破,我意识到,这才是图灵所说的方向。

这项技术其实并不新。如果你去读 1943 年麦卡洛克-皮茨 (McCulloch-Pitts) 的神经元论文,会发现里面的图示和今天的神经网络结构非常相似。上世纪 90 年代,还有论文分析深度学习寒冬的原因,批评那些神经网络研究者“没有新想法,只想造更大的计算机”。而我的想法是:是的,这正是我们该做的!

所有这些线索汇集在一起,让我感觉我们正延续着一段 70 年的历史。整个计算行业的发展,似乎都是为了让机器能够执行我们今天才刚刚开始探索的任务:解决人类无法解决的新问题,在日常生活中辅助我们,让我们不再需要用手指敲击键盘,而是能像与人交流一样与机器互动。我觉得所有条件都已具备,现在,我们只需要去创造。


OpenAI 的工程与研究文化

主持人: 我很喜欢你反复强调的主题——我们只需要去创造。2022 年,你写道,是时候成为一名机器学习工程师了。你说,优秀的工程师能够和优秀的研究员一样,为未来的进步做出同等水平的贡献。现在这句话还适用吗?毕竟很多工程师看到研究员拿着高薪,会疑惑自己如何才能做出同等的贡献。

Greg Brockman: 我认为这句话在今天不仅适用,甚至比以往任何时候都更加正确。回顾 2012 年以来的深度学习研究,早期确实是由拥有博士学位的科学家提出想法并进行实验。即使是 AlexNet,其核心也是在 GPU 上实现快速卷积核的工程创举。

当时和 Alex 一起在实验室的人其实很为他担心,觉得他只是为一些无关紧要的图像数据集写了几个快速的卷积核。但 Ilya (Sutskever) 认为,只要把它应用到 ImageNet 上,效果一定会很好。这正是伟大工程与伟大想法结合的魔力所在。

如今,工程的挑战已远不止是编写几个内核。我们需要构建能够扩展到十万个 GPU 的系统,需要设计复杂的强化学习 (RL) 系统。想法固然重要,没有想法就无从谈起。但如果没有工程实现,再好的想法也无法变为现实。这两者必须和谐共存。

主持人: Ilya 和 Alex 的合作关系,似乎正是 OpenAI 现在研究与工程合作理念的缩影。

Greg Brockman: 没错。从一开始,OpenAI 的文化就非常重视工程与研究,视二者为平等的合作伙伴,我们每天都在努力践行这一点。

主持人: 那么,在处理工程与研究的关系上,OpenAI 早期犯过哪些错误,而现在又做得更好了?

Greg Brockman: 我认为这种关系永远没有完美的解决方案,你只是解决了当前阶段的问题,然后进入下一个更复杂的阶段。我发现我们遇到的问题,其实在其他实验室也都出现过。

早期,我能明显感觉到来自工程背景和研究背景的人在思考系统约束时有很大差异。工程师会说:“我们约定好了接口,你就不该关心接口后面的实现。”但研究员会认为:“系统中任何一个 bug 都只会导致性能轻微下降,而不会抛出异常,我无法定位问题。所以,我必须理解整个系统。”这自然会引发摩擦。

我曾参与一个早期项目,工程背景的同事写完代码后,每一行都会引发激烈的争论,项目进展极其缓慢。后来,我们改变了方式。我会一次性提出五个想法,研究背景的同事告诉我其中四个不行,我说:“太好了,这正是我想要的。”

我们从中领悟到的关键价值,也是我告诉所有从工程领域加入 OpenAI 的人的,就是“技术上的谦逊 (technical humility)”。你因为拥有重要的技能而被录用,但这和传统的互联网创业公司是完全不同的环境。你需要判断哪些过去的直觉适用,哪些需要抛弃。最重要的是,带着谦逊的态度进来,认真倾听,在你真正理解“为什么”之前,先假设自己有所遗漏。当你彻底理解后,再去做架构或抽象上的改动。这种方法是决定成败的关键。


OpenAI 在规模化中面临的挑战与成功

主持人: 我们来聊聊 OpenAI 近期的一些发布。规模化是一个有趣的挑战,不同数量级下总有东西会出问题。ChatGPT 发布时,5 天内获得了一百万用户;今年,图像生成模型发布时,5 天内获得了一亿用户。这两个时期相比有何异同?

Greg Brockman: 这两次经历在很多方面都非常相似。ChatGPT 原本计划是一次低调的研究预览,结果发布后立刻引爆,服务器全线宕机。我们预料到它会很受欢迎,但没想到在 GPT-3.5 的阶段就能如此成功,我们原以为需要等到 GPT-4。

主持人: 因为你们内部已经用上了更好的模型,所以反而没那么惊艳。

Greg Brockman: 正是如此。这个领域的发展速度太快了,你刚看到一个神奇的东西,下一秒就会想:“为什么它不能帮我合并 10 个 PR 呢?”

图像生成模型的发布时刻也非常相似,它同样受到了用户的狂热喜爱,传播速度惊人。这两次发布,我们都做了一件我们极力避免的事情:从研究项目中调拨了大量算力来支持线上服务。这样做相当于透支未来,但如果你能满足用户需求,让大家体验到科技的魔力,那也是值得的。

我们的核心理念始终是服务用户,推动技术发展,创造前所未有的东西,并尽一切努力将它们带给世界。

主持人: GPT-4 发布会上那个手绘的笑话网站,我听说草图是你妻子画的?

Greg Brockman: 是的,那是个有趣的彩蛋。我的字写得太潦草了,连我们自己的 AI 都识别不出来。

主持人: 那场演示你有一些即兴发挥吗?

Greg Brockman: 当然。通常我做这类演示前,会测试大致的流程。但这个领域很容易出现那种因为一个字符拼写错误就导致整个演示失败的情况。我不喜欢那样的演示,我更喜欢有一定容错性的。所以实际展示的内容总会有一些变化。


氛围感编程与软件工程的未来

主持人: 那场演示,我认为是世界第一次看到“氛围感编程 (vibe coding)”。现在这已经成了一个流行词。你对它有什么看法?

Greg Brockman: 我认为“氛围感编程”作为一种赋能工具非常了不起,它代表了未来的发展方向。当然,它的具体形式会随着时间演变。

我们的愿景是,随着智能体 (agents) 变得越来越强大,你可以同时运行成百上千甚至上万个。那时,你会更像对待同事一样与它们协作。它们会在云端持续工作,即使你的电脑关机了也一样。目前这种交互循环式的“氛围感编程”,我认为会越来越多,但智能体的工作模式最终会超越它。这一切都将导致更多、更强大的系统被创造出来。

另一个有趣的现象是,目前很多“氛围感编程”的演示,比如制作那个笑话网站,都是从零开始创建一个应用。但我认为,真正具有变革性的,是改造现有的、复杂的应用程序。许多公司都有庞大的遗留代码库,进行迁移、更新库、替换语言(比如从 Cobol 迁移)对人类来说既困难又乏味。而 AI 正在开始能够解决这类问题。

我很高兴看到,“氛围感编程”从最初“制作酷炫应用”的有趣尝试,逐渐演变为严肃的软件工程实践。而未来,它将帮助企业以前所未有的速度发展。


Codex 对编程实践的影响

主持人: 提到 Codex,我听说你对它倾注了很多心血。在直播中你也提到,要让代码模块化、文档清晰。你认为 Codex 将如何改变我们的编程方式?

Greg Brockman: 说它是我的“孩子”有些夸张了,这背后有一个非常出色的团队,我只是尽力支持他们的愿景。但这个方向确实让我感到无比兴奋。

一个最有趣的发现是,你代码库的组织方式,决定了你能从 Codex 中获得多大的帮助。我们现有的代码库大多是为了适应人类的思维方式而构建的。但模型的优势和人类不同,它们能处理更多样化的任务,但在深入理解抽象概念方面暂时还不如人类。

因此,理想的做法是创建更小、经过良好测试的模块,并让模型来填充细节。模型可以自己运行测试,而连接不同模块的架构设计,对人类来说则相对容易。实际上,这听起来就像是优秀的软件工程实践,只是我们有时因为人类大脑能处理更复杂的抽象而走了捷径。

模型会比你多运行成百上千次测试,所以它对代码质量的要求更高。从某种意义上说,我们需要像为初级开发者构建代码库那样,来最大化模型的效用。随着模型能力的提升,这种代码结构是否依然适用还有待观察,但我认为这是一个很好的方向,因为它与提升代码可维护性的目标是一致的。

未来软件工程最令人兴奋的思考是:我们过去为了图方便而省略的哪些良好实践,现在为了充分利用 AI 系统而需要重新拾起?

主持人: 你能大概说一下,你们内部使用 Codex 带来了多少生产力提升吗?

Greg Brockman: 我没有最新的具体数字。但我们有相当一部分(一个较低的两位数百分比)的 PR 是完全由 Codex 编写的,这非常酷。当然,它不是我们内部使用的唯一系统,而且我认为这还只是一个开始。外部的数据也很鼓舞人心,比如在过去一天里,公共 GitHub 仓库中就有 24,000 个由类似工具生成的 PR 被合并。这一切才刚刚起步。


规模化的瓶颈与 AI 基础设施的未来

主持人: 这里有一个来自 Dylan Patel 的关于规模化和可靠性的问题。随着任务越来越复杂,需要更长的计算时间和更多的 GPU,而 GPU 本身并不可靠,经常会出故障。这会导致训练失败。你曾提到可以重启训练,但对于长周期的智能体任务,你无法简单地重启一个已经进行到一半的、非确定性的轨迹。你们如何处理这个问题?

Greg Brockman: 很多问题都是这样:你解决了当前的问题,然后模型变得更强大,你又得重新解决它。当任务执行时间只有 30 秒时,你不太关心这个问题;当它需要几天时,这个问题就变得至关重要了。

这时你就需要考虑如何为状态创建快照 (snapshot)。训练系统的复杂性就像一个不断攀升的阶梯。几年前,我们只关心传统的预训练,这很容易通过检查点 (checkpoint) 来处理。但即便如此,如果你想每一步都创建检查点,也需要仔细考虑如何避免数据复制和阻塞。

对于更复杂的强化学习系统,你可能需要为缓存创建检查点以避免重复计算。好在语言模型的状态是显式的,可以被存储和处理。但如果你连接的工具本身是有状态的,那可能就无法恢复了。

所以,你需要从端到端的角度考虑整个系统的可恢复性。当然,有时重启也无妨,图表上出现一点波动,聪明的模型自己能够处理。

主持人: 这里有一个来自黄仁勋 (Jensen Huang) 的视频提问。

黄仁勋 (Jensen Huang): 在这个新世界里,数据中心和 AI 基础设施的工作负载将变得极其多样化。一方面,智能体需要进行深度研究,它们思考、推理、规划,并与其他智能体协作,这需要巨大的内存和上下文。另一方面,有些任务又需要尽可能快地响应。

你如何创建一个能够同时优化这两种极端需求的 AI 基础设施?一种是需要大量预填充 (pre-fill) 和解码 (decode) 的计算密集型任务,另一种则是我非常期待的,像 R2-D2 那样始终在线、即时响应的多模态 AI 伴侣。一个要求低延迟,一个要求高吞吐,这非常复杂。你认为未来的 AI 基础设施会是什么样的?

Greg Brockman: 当然是需要很多很多 GPU……

主持人: 总结一下,黄仁勋想让你告诉他未来该造什么样的芯片。既要支持长时间计算,又要满足实时响应。

Greg Brockman: 这确实很难。我是一个软件工程师,我们本以为只是在为 AGI 编写软件,结果发现我们还得参与这些庞大的基础设施项目。但仔细想想,这也合情合理。如果我们要创造改变世界的东西,它很可能需要人类有史以来最庞大的物理机器。

对于这个问题,一个简单的答案是,你需要两种加速器:一种为计算优化,一种为延迟优化。一个堆满 HBM (高带宽内存),一个堆满计算单元。但难题在于预测这两者的比例。如果比例搞错了,你的一部分硬件就会变得毫无用处。

不过,这个领域没有固定的需求和约束,大家都在优化一个线性规划问题。所以即使资源比例失衡,我们的工程师也能想办法利用起来,尽管过程可能很痛苦。一个例子就是“专家混合模型 (Mixture of Experts)”,它就是利用了 GPU 上闲置的 DRAM 来存储更多参数,在不增加计算成本的情况下提升了模型效率。

所以,资源比例失衡并非世界末日。采用同质化的加速器是一个稳妥的起点,但最终走向专用加速器也并非不可能。当基础设施的资本支出达到惊人的水平时,针对特定工作负载进行超优化就变得非常合理。但最终结果如何,还很难说,因为研究的进展速度太快了,它会主导一切。

主持人: 你刚才提到了研究,那么能否为 GPT-6 的研发,对当前的几大瓶颈进行排序?比如:算力、数据、算法、电力、资金。

Greg Brockman: 我认为,我们正处在一个基础研究回归的时代,这非常了不起。曾有一段时间,感觉就像是“我们有了 Transformer,只要不断扩大规模就行了”。我喜欢解决这类定义明确的难题,但从智力上讲,这有点单调。

现在,我们已经把算力和数据推向了极限,算法再次成为未来进步的关键瓶颈。这些因素就像帐篷的支柱,缺一不可,需要保持平衡。

我们很高兴看到强化学习等范式取得的成功。我们为此投入了多年。当我们第一次与 GPT-4 交流时,我们感觉它很神奇,但又很难说清为什么它不是 AGI。它非常流畅,但有时会偏离轨道。我们意识到需要解决可靠性问题。它就像一个读万卷书但从未亲身经历过世界的人。

我们清楚地认识到,需要新的范式来弥补这些缺失的能力,我们会继续努力,直到实现目标。


AGI 时代下开发工作流的演变

主持人: 我们有黄仁勋的第二个问题。

黄仁勋 (Jensen Huang): 现场的 AI 原生工程师们可能在想,未来几年,OpenAI 会推出 AGI,他们将基于这些 AGI 构建特定领域的智能体。我想知道,随着 OpenAI 的 AGI 能力越来越强,他们的开发工作流会发生怎样的变化?他们仍然需要构建工作流、数据管道和飞轮效应。这些智能体将能够推理、规划、使用工具,并拥有长短期记忆。那么,未来的开发过程会是怎样的?

Greg Brockman: 这是一个非常有趣的问题,对此存在各种各样相互矛盾但都非常坚定的观点。我的看法是,首先,一切皆有可能。也许未来 AI 的能力会强大到可以编写所有代码。也许会有一个“天网”式的统一 AI。

但目前的迹象更倾向于一个由多种不同模型组成的生态系统。这其实非常令人兴奋,因为不同的模型有不同的推理成本和权衡。像模型蒸馏 (distillation) 这样的技术效果非常好,这意味着模型之间可以相互调用,从而释放巨大的能量。

我们正走向一个由 AI 驱动的经济。虽然还没到那一步,但已经能看到曙光了。在座的各位正在构建这个未来。经济是一个庞大而多样化的系统,它不是静止的。人们思考 AI 的作用时,很容易只关注它如何取代人类现在的工作。但重点不是这个,重点是我们如何将经济活动、产出和每个人的福祉提升 10 倍。

未来,模型会变得更强大,基础技术会更完善,我们能用它做的事情会更多,而进入的门槛会比以往任何时候都低。像医疗、教育这样的领域,需要专业的领域知识、审慎的思考和大量的工作。

因此,我认为未来将有无数的机会等待人们去创造。看到在座的各位,我感到非常兴奋,因为你们正是推动这一切的能量。

主持人: 感谢你的鼓励和启发,非常感谢!

Greg Brockman: 谢谢大家!


AI 前线

DeepSeek 上线两天后再回看:一次“小更新”,一场架构“豪赌”

2025-12-23 22:48:48

AI 前线

持续部署和结对编程助力精益软件交付,无需 Jira

2025-12-23 22:48:57

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索