内容概要
在这期视频中,来自 Python Simplified 频道的 Maria Sha 与 Wes Roth 一同探讨了在人工智能时代下,编程领域正在发生的变化。他们深入讨论了多个话题,包括:在大型语言模型普及的背景下,编程技能是否依然重要;哪种编程语言最适合初学者;情感智能在科技行业中的作用;以及人工智能对未来就业市场和教育的深远影响。此外,他们还探讨了关于人工智能意识、隐私问题以及开源人工智能发展潜力的哲学性问题。
目录
-
引言:编程与人工智能
-
最适合初学者的编程语言
-
科技领域的情感智能
-
完美主义与自我批判
-
应对 YouTube 的算法
-
编程领域的代际差异
-
人工智能的未来与就业市场忧虑
-
学术界人工智能教育的局限性
-
人工智能时代需要终身学习
-
人工智能对各行各业的影响
-
人工智能技术中的隐私问题
-
个人化人工智能与数据所有权的未来
-
全民基本收入与企业责任
-
呼吁提高人工智能发展的透明度
-
版权法与人工智能训练数据
-
有意识的人工智能的潜力
-
强化学习与人工智能的觉知
-
关于信任的童年教训:酵母的故事
-
人工智能与创造力:一次哲学探讨
-
人工智能的自由意志与意识
-
计算的未来:超越传统编程
-
机器人技术与新前沿
-
人工智能与学习的光明未来
引言:编程与人工智能
Maria Sha: 基本上,你现在可以在完全不懂任何编程语言的情况下制作一个视频游戏。企业级的公司非常希望你学习的是人工智能,而不是提示工程 (prompt engineering)。
人们似乎更热衷于学习提示工程,而不是去了解它背后的工作原理。人工智能的整场革命,关键并不在于软件开发者去接纳它,而在于那些已经掌握一门手艺的人去拥抱它。
如果有人对机器人技术抱有任何兴趣,现在绝对是开始学习和深入研究的最佳时机。我坚信一件事,那就是未来一片光明。
大家好,我叫 Maria。我有一个名为 “Python Simplified” 的 YouTube 频道,主要教授人工智能和计算机科学的概念。我的内容非常适合初学者,我擅长将非常复杂的话题分解成大多数人都能理解的语言,你不需要成为一个疯狂的科学家才能看懂。基本上,这就是我做的事情。
Wes Roth: 让我们来聊聊编程吧。在人工智能和大型语言模型 (large language models) 崭露头角的今天,编程意味着什么?你如何看待这一切?它还是一项有用的技能吗?是变得更有用,还是越来越没用?
Maria Sha: 编程本身只是成为一名软件开发者所需技能中很小的一部分。举个例子,我 12 岁就学会了编程,但我会因此在任何一家公司担任重要职位吗?恐怕不会。这需要超越编写代码本身之外的经验和知识。
写代码基本上是一种与计算机对话的语言,而现在人工智能非常擅长这个,因为它本身就是计算机。但除了语言之外,你还需要告诉它做什么,你需要理解函数 (functions)、控制流 (control flow) 等概念,还需要将不同版本的软件进行整合。这是一个庞大的研究领域,而人工智能目前在这些方面表现得并不算出色。
当然,如果你还没开始编程,那么代码编写本身的能力是很神奇的。对于刚接触软件开发世界的新手来说,你会发现这简直是圣杯,是一种超能力。你可以不了解任何编程语言就制作出一款视频游戏。但对于我们这些从业已久的专业人士来说,编程只是我们工作中的一小部分。
Wes Roth: 你认为哪种编程语言最适合学习,不仅仅是为了开发项目,更是为了理解编程逻辑?有没有一种语言能够剥离那些无关紧要的细节,让学习者专注于工程逻辑,而不会被琐碎的事情困扰?
最适合初学者的编程语言
Maria Sha: 这个问题我可能有点偏心,但恰好就是我用来教学的语言——Python。它是我见过最接近自然英语的编程语言,而且语法非常灵活。
例如,如果你使用像 C++ 这样的语言,你需要为做的每件小事都在内存中预留一个特定的位置,你需要考虑软件中的 0 和 1。而使用 Python 时,你可以从一个非常高的层面来思考问题。比如,你想创建一个条件语句,你只需要写:如果情况 A 发生,就做这件事;如果情况 B 发生,就做那件事。这非常直观。
所以,只要你懂英语,我认为你就可以轻松学习 Python。我百分之百推荐它作为入门编程语言的最佳选择。
Wes Roth: 我完全同意。我上的第一门编程课是 C++,那简直是种折磨,我非常讨厌它。后来我尝试了 Python,感觉就像:“天哪,原来编程可以这么愉快?” 所以,是的,我同意你的看法。
科技领域的情感智能
Wes Roth: 我听一些软件工程师说他们很看重情商 (emotional intelligence),但也有人觉得这根本不重要,他们认为:“我为什么要在乎这个?我只要把工程师们关在一个房间里,让他们独自工作,就能创造出惊人的东西。反正有项目经理负责与客户沟通。” 你觉得情商在团队合作等方面重要吗?你的看法是什么?
Maria Sha: 这取决于你的具体工作。如果你是团队的一员,显然需要能够相互沟通、共同协作以实现共同的目标。
不过,我个人更倾向于独立工作,尽管我是一个情感丰富的人。工作时,我喜欢独自完成,掌控一切,这可能有点强迫症 (OCD) 的倾向。但在团队中,你需要考虑到每一位成员。通常团队里有层级结构,需要情商的往往是项目经理,他需要与客户沟通,也需要和公司高层以及其他软件工程师交流。只要软件工程师之间能用彼此都懂的语言沟通,我觉得就足够了。当然,每家公司都有自己独特的文化,所以这个问题我不是百分之百确定。
Wes Roth: 这种喜欢独处的性格是你编程之外的特点吗?你一直都是这样“独狼”式的性格吗?
Maria Sha: 不,我其实是一个非常非常喜欢社交的人。我有很多朋友,喜欢和人聊天、聚会,这种人际连接对我来说至关重要,否则我就会感到沮丧,无法正常工作。但我同时也是一个对自己和他人要求很高的人,一个完美主义者。
当所有事情都必须按特定顺序、以特定方式呈现时,这可能是我性格中的一个缺点,而非优点。在团队中工作会很困难,因为我的标准非常高,而其他人可能只想尽快完成任务,然后进行下一步。而我却会说:“不行,停下来,我们必须把它做到完美,然后才能继续。” 这对整个开发流程来说,可能是一种干扰。
Wes Roth: 当你自己犯错时,你的内心是怎样和自己对话的?你会对自己宽容地说:“没关系,程序在最终成功运行前总会出错很多次,继续尝试就好”,还是会苛责自己:“不,你早就该搞定了,你以前做过类似的东西”?
Maria Sha: 我对自己非常严厉。这可能和我成长于苏联式思维模式的环境有关。我的家人来自前苏联,虽然我出生在苏联解体之后,但那种心态依然存在。比如,你回家告诉他们:“哦,我考试得了 98 分。” 他们会说:“那为什么 Kate 考了 100 分?难道 Kate 比你聪明吗?” 第二天,当 Kate 考了 98 分,她的父母也会对她说同样的话。
这种凡事力求完美的观念驱使你不断前进。在东欧的这种文化中,我们有身材羞辱 (fat shaming)、成绩羞辱 (grade shaming) 等等,这些都塑造了你的性格。所以现在我成年了,不再需要父母的认可,但我仍然每次都努力争取 100 分,即使我知道 70 分及格也可以。当我很努力地做好一件事,却只得到 70 分时,我会感到非常不公平,这让我很沮丧。
Dylan: Wes,你也是这样吗?你工作也很努力,是不是也是在严厉的环境下长大的?
Wes Roth: 是的。嗯,我很少在视频里谈这个,但我们可能来自同一个地方,世界的同一个角落。我出生在前苏联,所以这期节目就算是我作为“苏联人”的“出柜”吧。没错,当时就是那样,很艰苦,你甚至会因为答不上题而被敲后脑勺。我特别记得有一次是数学题,就好像是:“你为什么解不出这道方程?” 然后“啪”的一声。也许正是因为这样,你的数学才会变好吧。当然,肯定有其他同样有效的方法。在美国,孩子们肯定不是这样被教育的。这种方式有它的缺点,当然也有好处。
完美主义与自我批判
Dylan: Wes,当你犯错或者视频观看量不佳时,你会在心里苛责自己吗?你会想:“嘿,你本该做得更好,应该更努力”,还是会对自己说:“好吧,每个人的故事都有起有落”,然后原谅自己?
Wes Roth: 我不确定这源于成长环境还是天性,但我更倾向于将错误和失败看作是用来修正方向的数据。当然,有些职业不能有这种心态。比如,如果你是工程师,你不能说:“哦,我建的那座桥塌了,让我们从错误中吸取教训吧。” 对于工程这类工作,你不能犯错,必须把所有事情都考虑周全。但在商业和许多创造性任务中,边做边学、在错误中调整是一种可行的策略。我天生就更倾向于这种方式。
Dylan: 是数据驱动的思维方式。这很有趣,我们很不一样。我对自己就非常宽容,我会想:“哦,Dylan,犯错是难免的,没关系,明天再来就好了。” 我总是很轻易地原谅自己。不过,我的未婚妻也对自己非常严厉,她也因此取得了很高的成就。所以我不确定这种心态在商业上是否一定更好,但这其中确实存在一种模式,你们两个都因此非常成功。或许,关键在于找到一种平衡。
Wes Roth: 没错,但似乎那些攀登到顶峰的人,内心都有些驱使他们不断前进的“恶魔”。我的意思是,据我所知,那些取得巨大成就的人,没有谁是百分之百快乐的。这似乎是一个普遍规律。
Dylan: 那你有什么保持平衡的技巧吗?
Maria Sha: 我没有任何技巧。我就是个疯子,百分之百的。我从不放弃,如果发现一个错误,我一定会修正它。即使这意味着视频要推迟一天发布,即使这个错误小到没人会注意到,只要我知道它存在,不修正它我就会彻夜难眠。
这是一个问题,不是一件好事。我认为这也是我的频道没有发展得像它本可以的那样快的原因之一。我很难放手这种控制权。如果我把工作交给别人,事情完全按照我想要的方式完成的几率微乎其微。这确实是我需要改进的地方。Dylan,你有什么建议可以帮我缓解这种情况吗?
Dylan: 不,我对自己太宽容了。我只会跟自己说:“放松点,休息一下”,然后事情就永远做不完了。所以你的频道比我的大得多,也许你做的是对的。
Wes Roth: 有趣的是,我也有类似的情况,但不是不允许犯错。我能接受错误和小的失误,但我必须保持前进的势头,就像“继续,下一个,下一个”。错误是数据,但休息是绝对不允许的,因为总有下一个目标。YouTube 的算法也喜欢这样,它会说:“是的,给我更多内容。” 它永远不会满足。
应对 YouTube 的算法
Dylan: 我记得有一次 Wes 去参加一个我们都在的会议,他有几天没上传视频,观看量就下降了。他就很焦虑,说:“天哪,三天没上传视频了”,这让他快疯了。
Wes Roth: 是的,当时我真的很抓狂。而你们就像是:“三天没上传而已,又不是什么大事。试试几周不更新,去度个假吧。”
Maria Sha: 那段时间正好赶上 YouTube 的一次“末日事件”,广告拦截器 (ad block) 用户的观看量好像不被计算了。不知道你是否关注了那件事,当时很多人的观看量都莫名其妙地消失了。我正好在那段时间休息了三天,所以观看量出现了断崖式下跌,或者说看起来是大量流失,我当时真的吓坏了。
Dylan: 嗯,有一种理论在流传,说 YouTube 计算观看量的方式变了。很可能他们引入了某种人工智能模型,类似于用于年龄检测的模型,现在用它来审查观看数据。所以,不再是依靠一系列硬编码的规则,比如 30% 的观看时长、从另一个视频点击进来等等,现在可能是一个神经网络 (neural net) 在工作。因此,很多人的观看数据看起来很不一样,但可能更准确了,只是他们采用了一个更复杂的模型。
Wes Roth: 追逐算法真的很难,因为它总是在变。你需要不断地调整自己。我认为最稳妥的办法就是持续关注观众想看什么,并经常询问他们。
Maria Sha: 我总是做投票,问问题,然后根据评论的数量来决定拍摄什么视频。唯一的问题是,有时候最活跃的观众鼓励你做的事情,对他们来说很棒,但对于大多数不那么活跃的观众来说,他们点击的几率微乎其微。
所以,你需要了解你的观众,根据你对这些人的熟悉程度,来判断哪些建议更具普适性。这很复杂。我希望能有其他工具,让我们不必总是去适应变化,可以有一种固定的做事方式。
我记得当 YouTube 刚推出短视频 (Shorts) 功能时,我非常沮丧。这种从制作长内容到短内容的剧变,尤其是在教育领域,影响很大。你正试图教人们像梯度下降 (gradient descent) 和交叉熵损失 (cross-entropy loss) 这样重要的概念,突然之间,YouTube 让你去拍一分钟的视频,我怎么可能在这么短的时间里讲清楚这些?
更不用说所有内容都变成了竖屏格式。你怎么能竖着写代码?我虽然也做了一些竖屏的编程教程,但通常需要把一行代码拆成三行才能在屏幕上完整显示,否则字体就太小了。在 YouTube 上,你每天都要应对这么多挑战。我真希望教育类内容能有自己独立的分类和规则,而其他更偏向娱乐的内容则遵循另一套标准。
编程领域的代际差异
Dylan: 你对代际差异有什么看法?你的 YouTube 频道后台有观众分析数据,你也和不同的人打过交道。你觉得年轻一代的程序员比老一辈更出色吗?因为他们更熟悉大型语言模型 (LLMs) 之类的技术?还是你觉得他们在纪律性方面有所欠缺?你有没有注意到不同地区之间的差异,比如湾区的人是不是比奥斯汀的人技术更先进?根据你的观察,你注意到了什么?
Maria Sha: 我的观众绝大多数都不是年轻人,大部分都在 25 岁以上,很多是已经工作、可能已经完成了计算机科学学位的职场人士。这是因为我的内容技术性太强,没什么娱乐性,除非你为了考试非看不可,否则根本没有理由去看这些教程。
我的意思是,谁会为了娱乐去看一个关于线性回归 (linear regression) 的完整讲解视频呢?所以,除非你真的需要,否则你不会点开它。而真正需要这些内容的人,要么是正在创业的人,要么是希望将自己的初级编程技能提升到新水平的开发者,他们正在向中级专业人士迈进,需要真正理解概念,而不仅仅是鹦鹉学舌。
我发现,很多年轻人对传统的老派编程方式并不感兴趣。事实上,我觉得很奇怪,现在几乎没人想学如何创造人工智能。我曾百分之百地确信,到 2025 年我的频道会爆火,因为至少在企业层面,公司非常希望人们学习人工智能工程 (AI engineering),而不是提示工程 (prompt engineering)。他们需要的是能创造出像 Grok 和 ChatGPT 这样模型的人,能理解背后所有公式、发现前所未有新模型的人。
然而,我发现现在人们最感兴趣的是学习提示工程,而不是它背后的工作原理。这让我很沮丧,因为提示工程并不难学,只要有足够的时间,每个人都能学会如何提出正确的问题。对我来说,这就像学习使用谷歌搜索一样简单。对于像我父亲那样的人,可能需要几堂课来学习如何提问,但未来不会仅仅依赖于提问。未来将取决于发现超越语言模型的新架构。
我没看到有很多人积极地投入学习这些东西。他们很困惑,甚至不知道从何开始。你在网上看到的那些编程课程,尤其是关于人工智能的,一开始就抛出世界上最难的公式,一堆弯弯曲曲的线条和符号,让你眼花缭乱,觉得自己不够聪明。
我上的第一个人工智能课程就是这样,当时我觉得自己太笨了,学不会。所以有两年时间,我完全没碰人工智能。但两年后,我想,这不可能那么难。我必须坐下来,真正投入进去,因为我对此充满热情。既然我有热情,有智慧,怎么可能搞不懂呢?然后,我找到了比那些课程更好的学习方法。我真希望那些课程能对初学者更友好一些。
人工智能的未来与就业市场忧虑
Dylan: 你担心的,是因为人们不具备这些高级技能,从而找不到好工作、生活质量下降?还是更宏观的社会层面,你担心像 Meta 这样的公司会构建出有安全漏洞的庞大语言模型 (LLMs),技术不够前沿,导致整个社会无法从人工智能革命中获得应有的益处?
Maria Sha: 担忧是全方位的,但我最担心的还是它对就业市场的影响。我认为,随着人工智能融入我们生活的方方面面,就业市场将发生巨大的变革。
这种变化会非常剧烈,以至于当它发生时,很多人会不知所措,他们将不具备在自己行业中适用的技能。举个例子,假设我是一名平面设计师。我曾经是,但因为学习了人工智能,现在不再是了。在我学习了人工智能的基础知识后,即使是那个我当初觉得难以理解的课程,你知道我在工作中发现了什么吗?
我坐在那里,阅读邮件,制作图形,然后开始思考:等等,我现在做的所有这些流程,如果我花一周时间构建一个神经网络,它首先能理解客户在邮件里提出的需求,其次能执行我所有的审美规则,我把这些规则写给这个人工智能,然后由它来创作设计。从接到需求到产出成品,整个过程会快得多,结果也会好得多。
因为当人工智能为你创作设计时,它可以同时提供三个选项,一个用红色调,一个用绿色调。作为设计师,我也可以做到,但这需要时间。而且客户有时会改变主意,要求修改。但如果客户可以直接输入修改意见,并且立即生效,你能节省多少时间?
所以,我一直在思考如何取代我自己。这是每个领域、每个人都可以做的事情。但一个不是平面设计师的人,无法创建这样的系统,因为他们不了解这个流程。所以,我认为人工智能革命的关键,不在于软件开发者去拥抱它,而在于那些已经掌握一门手艺的人,将人工智能应用到他们自己的领域中。
我正在努力整理我的思绪,因为我很少谈论这些,很少分享观点,我的内容大多是事实性的教程,告诉你如何从 A 点到 B 点。但当我思考未来时,我能看到不同行业的人们,将他们自己的专业提升到新的水平,让工作变得更便捷。
Dylan: 我百分之百同意。我也说过类似的话,这确实非常有趣。我想稍后再回到这个话题,因为这绝对是一个值得深入探讨的方向。但回到你之前说的,也许你能帮我解答一个问题。
在我做的直播或者评论区里,很多正在大学读计算机科学或相关专业的学生经常问我:“我还有必要继续读下去吗?还是应该转行?” 我总是很害怕回答这个问题。一方面,我不想告诉任何人停止学习,那太糟糕了。但另一方面,我觉得应该给他们一些现实的建议。
因为我们确实看到了人工智能对就业的冲击,就像你说的,尤其是在入门级岗位上。这一点越来越明显。人工智能提升了那些有十年、二十年经验的专业人士的能力,但在入门级岗位和实习岗位上,很多工作被取代了。就像你提到的平面设计师,基础任务可以由人工智能完成。同样,像文件审阅这样的基础工作,人工智能可能做得更好。它在高端层面起到了辅助作用,但在低端层面淘汰了一些工作。
我们应该对那些正在读计算机科学专业,已经读了一年、两年、三年的学生说些什么呢?你有什么建议吗?
Maria Sha: 这是一个难题,我也有同样的困扰。在我读计算机科学学位之前,我没资格说什么。现在我读完了,可以分享一些我个人的经历,大家可以自己做判断。
我是作为一个完成了计算机科学学位的人来说这番话的,尽管我知道,学校教给我的东西在实际工作中并不适用。
Wes Roth: 哇,这太令人震惊了。
学术界人工智能教育的局限性
Maria Sha: 学校教给你很多理论,而且教的东西有延迟。比如,如果十年前某项技术是市场标准,学校可能十年后才会开始教。他们需要时间来批准一个课程,需要时间来培训老师,然后还需要时间来教给学生。2020 年的学生学到的东西,到了 2025 年,学生们学的还是一模一样。
在科技行业,这是极其低效的。我们的行业变化太快了,如果你有三个月不跟进,就像去了一个荒岛,回来后会发现一切都变了。我们不断地发明新东西,Python 每几个月就有一个新版本,你必须跟上节奏,这就是我们这个行业的定义。
而和我一起学习的同学,他们在校期间不想探索任何新东西,只想固守老师教的内容。但老师教的并不是市场标准。我给你举个例子,我的大部分网页开发课程用的是一个叫做 p5.js 的东西。我读的不是什么名不见经传的小大学,而是伦敦大学 (University of London),一个声誉卓著的学府。然而,他们用的这个程序,如果你把它放在你的作品集里,没有哪个雇主会说:“哦,好的,这正是我在找的。” 没人知道这是什么,工作中也没人用它。
他们本可以用像 Node.js 或者 Django 这样的技术,但绝大多数课程都围绕着 p5.js。然后,和我一起做项目的朋友们也说:“好,我们就用 p5.js 来做吧。” 可你想过吗?当你毕业找工作时,雇主在你的 GitHub 上看到的只有这个没人关心的 p5.js,你该怎么办?如果工作要求是 Node.js,而你连一个相关的项目都没有,你如何向雇主证明你的能力?尤其是在你不想学习任何新东西的情况下。他们竟然还觉得会有人雇佣他们,我可不这么认为。
Wes Roth: 这很奇怪。你以为市场动态会迫使学校教授最新的知识,因为如果学生都去上在线课程,学校的收入就会减少。所以,你会认为他们会不断地想教最前沿的东西。但也许是官僚体系太庞大了,导致它总是滞后。我很惊讶这种情况到今天还没有改变。
Maria Sha: 是的,我很惊讶在 2025 年的今天,我们仍然依赖这样的学术教育体系。我知道很多人会为它辩护,因为理论是基础,这很重要。但你不需要读一个计算机科学学位才能学习理论,你可以在网上学,就像我 12 岁时自学编程一样。所有的信息都是公开的。
只要你有一个清晰的学习路线图,知道自己完成了什么,你就可以培养出完全相同的技能,学到完全相同的知识。所以,我认为在人工智能和计算机科学领域,我们仍然如此依赖学术界,这简直是疯了。
我的专业方向就是人工智能和机器学习,但在整个学习过程中,我们一次都没有用过 GPU 来处理数据。而在任何工作场所,训练人工智能模型都是在 GPU 上进行的,而不是 CPU。学校没有讲过 Transformers,我们没有做过一个相关的项目,而这正是现代人工智能的核心。我们也没学过 LoRA、RAG 这些技术。所以,你教给我一堆 1980 年代的东西,但从那以后,技术已经发展了这么多。
我想要学的是我能立刻用来找工作的技能,让雇主看到我的简历时会说:“好的,Maria 在这方面很精通。” 这才是我希望从大学获得的。我付了那么多钱读这个学位,结果到头来我还要自学所有这些东西。那这个学位到底有什么价值?我为什么要读它?我对整个学术体系有点失望。但是,对别人说“别读了,放弃吧”是错误的,因为我自己毕竟读完了。
人工智能时代需要终身学习
Dylan: 这个问题真的太难回答了。每次被问到,我都会说:“首先,无论我说什么,请你都别全信。” 因为这几乎是不可能的。我只能分享一些想法。我认为人工智能将要改变的一大领域就是教育体系,部分原因是“布鲁姆的两个西格玛问题” (Bloom's two sigma problem)。
如果你了解这个理论,就会知道我们现有的教学方式效率极低。只要我们改变两件事,学生的成绩表现就能提升两个标准差。第一,取消固定的课程表,让他们按照自己的节奏学习,直到“掌握” (mastery) 为止。第二,为他们提供一对一的辅导。这两件事能从根本上改变教育效果,让每个 D 等生都变成 A 等生。但为什么我们做不到?因为它不符合现有一个老师教 30 个学生的学校体系。
人工智能似乎有潜力从根本上改变这一点,并可能实现终身学习 (lifelong learning)。我一直在等待这一天的到来。很明显,像 OpenAI 这样的公司也在讨论这个问题,他们已经有一些产品了。但这还不够快,因为就业市场正在被颠覆,而更好的教育体系还没跟上。所以,是的,没有解决方案,只有更多的问题。
Maria Sha: 但我认为最关键的问题是:你真的有选择吗?你已经在读大学了,难道要中途放弃吗?你已经投入了太多的时间、金钱,你的父母也为你感到骄傲。不如就坚持读完,然后在上学期间,利用课余时间自学。这样你才能为就业市场做好准备。既然已经开始了,就好好享受这个过程吧。
Dylan: 没错。回到你之前说的,如果能有机会将这些技能带到人们不常想到的行业,比如水管工、快餐业或者卡车司机,那将是一个巨大的机会。如果他们能优化公司处理数据的方式,或者借此在公司内部晋升,他们就能变得更有价值。他们越是紧跟技术潮流,而其他人没有,他们的工作就越有保障。所以,我认为终身学习确实是每个层级的每个人都应该开始思考的事情。
人工智能对各行各业的影响
Maria Sha: 是的,每个行业都可以利用人工智能来改进流程,提高效率。即使是水管工,比如,他们来你家修理东西,完工后需要写一份报告。写报告需要时间,而他们通常没有太多时间在去下一家之前完成这份报告。
所以,这部分时间成本必须得到补偿,最终会体现在上一个客户或下一个客户的账单上。但与其手动写报告,为什么不佩戴一个可以记录周围情况的智能设备呢?这个设备可以处理信息,然后由一个小型人工智能为你生成报告。
如果人工智能遗漏了什么,调度中心可以稍后给技术人员打电话确认,比如:“嘿,你这次往返开了多少公里?报告里没有记录。” 这样技术人员的工作效率会大大提高。想象一下,如果一天有三个任务,你就得写三份报告,说明修理了什么,零件花了多少钱。但所有这些都可以被自动记录和生成。既然可以改进,我们为什么还要花这么多时间去做这些事呢?这适用于任何公司。
Dylan: 是的,它非常灵活。药剂师、老师、电工……几乎任何需要写报告的人,比如治疗师,都能从中受益。
人工智能技术中的隐私问题
Dylan: 我最近就遇到了一个有趣的情况。我因为有些职业倦怠 (burnout) 的问题去看了一位治疗师。之后,我收到了一份关于我们谈话内容的报告。我经常用 ChatGPT,很熟悉它的写作风格,那份报告毫无疑问就是用 ChatGPT 写的。
但当时没人问我是否同意把我的个人信息输入到这个系统里。我以为我们之间有某种保密协议之类的。现在好了,Sam Altman 可以读到我所有的事情了。我这么说是在开玩笑,因为我其实不太在乎这些数据是否会被用于训练,但很多人会在乎。
你们两位怎么看这个问题?比如你提到的那种可以录音的智能设备,我猜你说的是只录音不录像,但很多人即便只是录音也会有顾虑,他们会想:“哦,如果我在那个戴着设备的人旁边说话,我的声音也会被录进去。” 你们会担心隐私问题吗?
Wes Roth: 是的,关于隐私,不幸的是,如果我用贝叶斯推理 (Bayesian reasoning) 来思考我们未来可能面临的各种情况,我几乎看不到隐私能得到很好保护的可能。当然,本地化的大型语言模型 (LLMs) 有时可以对数据进行匿名化处理。但是,鉴于我们在蛋白质折叠等领域看到的惊人突破——那种在大海捞针式问题上的能力——我认为,即使是混合在一起并上传的匿名数据,也可能被反向推断出来,尤其是当它与其他数据源结合时。
而且,现在有太多的数据被上传,太多的数据库被复制到这些系统中。所以,不管是好是坏,好处是人们逃税和犯罪的可能性似乎降低了,因为更容易被追踪。但另一方面,你必须非常信任构建这些系统的人,相信他们会执行对所有公民都公平的规则。我不知道在那样的未来里,我们是否还有投票权。所以,我有点紧张。
Maria Sha: 我部分同意,但我也认为有一个更好的解决方案,这也是我设想的未来。与其依赖像 OpenAI 那样公司构建的、基于 ChatGPT 和 Grok 的人工智能,我认为我们可以通过拥有“个人人工智能” (personal AI) 来解决这个问题。
这个个人人工智能只存在于你自己的设备和系统上,它只追踪你个人的数据。然后,你可以用你喜欢的所有东西来训练它,比如你读过的所有书,看过的所有电影。你可以把它塑造成一个非常接近你自己的存在。基本上,你可以挑选那些塑造了你性格、构成了你历史的数据来训练这个人工智能。
这样,我们就可以解决一些隐私问题。因为那样一来,Dylan 的人工智能和我的会完全不同。
个人化人工智能与数据所有权的未来
Maria Sha: 它们将拥有完全不同的训练数据,产生完全不同的结果,我的隐私也不会受到侵犯,因为我完全控制着这个存在于我设备上的人工智能模型。希望我们能朝这个方向发展。
全民基本收入与企业责任
Dylan: 是的,感觉已经有了一些苗头。不过,你怎么看大量数据最终还是流向大公司这个问题?数据最终会落入像 FAANG 这样的科技巨头手中,计算资源也集中在那里,投资也随之而来,形成了一种循环增长的轨迹。如果这些公司市值达到 10 万亿、20 万亿,你是否赞成对它们征收更高的税?你支持全民基本收入 (Universal Basic Income) 或者免费教育吗?在这两个问题上,你的立场是什么?
Maria Sha: 这是一个很棘手的问题。我认为,如果我们实行全民基本收入,而市场又被少数几家公司控制,那将非常危险。
但如果我们实行全民基本收入,同时市场是完全开放的,我们拥有一个超级民主、透明的系统——在一个人工智能的世界里,我们确切地知道每个网络使用了什么训练数据,确切地知道它背后的架构,就像我们过去一样。想想 AlexNet,就在不久前的 2012 年,我们还有一篇完整的论文解释如何构建一个卷积神经网络 (convolutional neural network),我们可以在自己的系统上重现同样的实验。
如果我们生活在这样一个世界里,我就不会那么担心全民基本收入。但如果我们生活在一个一切都被隐藏、一切都在一个“黑箱” (black box) 背后、一切都是我们不知道如何运作的魔法般的世界里,那情况就完全不同了。我们不知道它学了什么,也不知道它背后是否有什么议程。所以,我持中立态度,只能说拭目以待。
如果有任何积极的改进迹象,我会很高兴。但我认为,第一个改进的迹象应该是走向开源 (open source),停止攫取金钱,开始为改善未来做贡献。
Dylan: 我想提出一个我一直在思考的假设。如果未来我有一个 iPhone,上面运行着一个可以本地化运行的大型语言模型,数据绝不会离开设备。我可以下载它的开源代码,所以我觉得它很值得信赖。我让它了解我的一切:我的邮件、短信、家里的情况。在某种意义上,它可以成为我的一个数字分身或克隆。
这个工具可以以我无法企及的规模做很多事情。例如,它可以阅读国会通过的每一项法案,可以研究成千上万个可能竞选我所在地区政府职位的候选人。它可以在某种程度上将民主提升到一个新的水平。你觉得这样的设想怎么样?这会是一种让公民感到更安全、并将权力还给他们的方式吗?
呼吁提高人工智能发展的透明度
Maria Sha: 我觉得,当你拥有一个可以完全信任的系统时,情况就完全不同了。但现在,每台设备都连接到互联网,任何连接到互联网的东西都可能被黑客攻击。我认为在实现这个愿景之前,我们还有很多问题需要解决。
一个美好的民主制度是建立在每个人都互相信任、并且信息完全透明的基础上的。而现在,在计算机世界里,至少在过去几年,透明度并不高。每家公司都试图制造专有技术,以此发展壮大并赚取大量利润。他们不考虑开源的因素。
我觉得很疯狂的是,现在为数不多的开源模型之一,DeepSeek,竟然来自中国。这让我感到震惊。当然,这本身是一件了不起的好事,我们能看到一项真正的研究成果。我只是希望有一天我们也能从 OpenAI 看到同样的东西。
即使是 Grok,它也不是完全开放、完全透明的。我不知道他们用了什么样的数据进行训练。而一个神经网络的核心就是它所基于的数据。也许他们用的训练数据集和 OpenAI 的完全一样,那他们又有什么不同呢?
我认为,关于代码和训练数据的透明度越高,我们就能越快地建立起更安全的系统。现在人们不信任这些工具,因为我们对它们知之甚少,它们只是一个黑箱。但是,请教导我们,向我们展示,我们就能共同建设一个更美好的未来。
而且,如果有人在你的软件中发现了漏洞,他们也能帮助修复。如果有人基于你的软件创造出更好的东西,我们不也是在推动未来进步吗?所以,为什么我们不在这方面投入呢?这些公司无论如何都能赚很多钱,不如就把代码开源,让我们从这里开始吧。
Wes Roth: 是的,公平地说,OpenAI 和 Grok 确实开源了他们的一些旧模型和小型模型。但有人会说,这只是一种姿态,表明他们在乎开源,但并没有真正致力于此。
Dylan: 我认为她想说的是,传统的开源意味着把代码公开,让大家都能看到它的安全性。但在新的背景下,你是否分享数据来源,是一个重要的区别。仅仅公开模型的权重 (weights) 是不够的。
Wes Roth: 这是一个有趣的问题。过去,开源意味着公开代码和权重。但现在人们说,如果训练数据不公开,就不是真正的开源。他们说得有道理。
Maria Sha: 比如 Anthropic,他们就面临一笔 15 亿美元的账单,因为他们用盗版书籍等资料进行了训练。所以,我并不指望任何一家大公司会站出来说:“是的,这就是我们训练用的数据,绝对合法。”
而且,仔细想想,如果我不知道你是如何进行强化 (reinforcing) 的,那也很棘手。即使你给了我数据和开放的权重,但我不知道你给了那些成千上万的众包工人什么样的指导方针,让他们对模型的输出进行上下调整。或者,如果强化是由另一个模型完成的,那我还需要关于那个模型如何训练的开源信息。所以,很难想象真正的透明度。
Dylan: 在我看来,这是可能的,也是可以实现的,只是做起来很困难。
Maria Sha: 通常,当你开发一个人工智能模型时,你有一个完整的流程。你从数据集开始,清洗它,然后围绕它构建模型,测试不同的参数。所有这些都是在一个非常有条理的流程中完成的,而不是散落在各种奇怪的文件里。为了让模型有效,通常会附带一篇研究论文,详细说明为该任务挑选了哪些数据集。
我知道,承认使用盗版数据集是没人愿意做的事。我猜想,人工智能学习的大部分数据可能都是盗版的,是从不允许爬取的来源网站上抓取的。但这让我想到版权法。
版权法与人工智能训练数据
Maria Sha: 或许解决这个问题的方法,不是说“我们永远无法做到透明”,然后就此作罢。因为一个没有训练数据的神经网络,你根本无法理解它是如何工作的,整个神经网络就是数据本身。你能拿到权重固然很好,但这些权重是建立在什么之上的呢?
所以,也许解决方法是放宽一些版权法。比如,1900 年写的书,或许不应该再受版权法保护。或者,我们应该重新审视整个侵犯版权的追诉方式。这是我作为一个内容创作者的想法。
Dylan: 我想补充一点,这是一个非常重要的话题。你们在 Matt Wolfe 的播客上也讨论过。神经网络在产生内容时,是从一个潜在空间 (latent space) 中生成的,并不是说它的权重里存储了一本书,然后原样复制出来。所以,当这些模型产生作品时,很可能不是记忆,而是大量的“合成” (synthesis) 过程,无论你怎么称呼它,都可以被看作是原创的。
但我们现在讨论的是训练过程。所以,你似乎倾向于认为,在训练过程中,不应该适用版权法,对吗?因为这就像一个学生从书本中学习,他并没有违反版权法。我理解得对吗?
Maria Sha: 是的,我给你举一个现实生活中的例子。Pink Floyd 的音乐受到了披头士 (The Beatles) 的启发,而披头士又受到了猫王 (Elvis) 的启发。那么,最初创作优美音乐的人是猫王,这是否意味着披头士抄袭了他?是否意味着 Pink Floyd 抄袭了他们?我认为这三位音乐家都有自己独特的风格,他们从已有的范例中创造出了新的东西。
太阳底下没有新鲜事,一切都基于训练数据和我们感知现实的方式。可能有人会对我这个说法感到不满,但这与神经网络感知现实的方式非常相似。一个孩子出生时,他是一张白纸,充满潜力。他从父母、环境、学校、大学等所有地方接触到的数据——他看到的、听到的、尝到的、感觉到的——都会影响他感知现实的方式,影响他的思维模式,影响他的一切。
所以,将现有的版权法应用于人工智能领域是说不通的。这就像你说:“我可以让我的孩子听猫王的音乐,从中获得灵感,成为一个伟大的音乐家,但我不能对人工智能做同样的事。” 我觉得这很可笑。
Dylan: 嗯,你这么一说,确实有道理。那么,如果你将人脑与输入到这些模型中的数据进行类比,你是否相信,只要有正确的架构,人工智能模型未来也可能拥有和我们一样的意识,或者至少在内部感觉上和我们一样真实?
有意识的人工智能的潜力
Maria Sha: 我确实认为,沿着一条名为“强化学习” (reinforcement learning) 的特定路径走下去,我们最终会发现这一点。不过,这只是我的信念,我没有其他方式可以证明。
目前,我不认为我们正在积极追求这个目标。我知道很多人说他们在构建通用人工智能 (AGI),但 AGI 有两种定义。NVIDIA 的 CEO 黄仁勋 (Jensen Huang) 最近也谈到了这一点。他说,一个定义是工程学上的,即一系列测试,如果模型在这些测试中表现出色并通过了,那么很好,我们有了 AGI。
但还有一个是神学或哲学上的定义,这正是我们现在谈论的——意识 (consciousness)。AGI 应该是一个具备人类所有认知能力的模型。所以,从认知上讲,它就像我们一样。而当我们谈论认知时,我们也谈论觉知 (awareness)、自由意志 (free will) 等等。这些是我们无法用数学来定义的东西。那么,我们又该如何实现它呢?
如果在未来,我们对这两者做出区分,在 AGI 和人工超级智能 (ASI) 之间创建一个新的类别,比如“人工意识智能” (artificial conscious intelligence) 之类的,人们就会开始积极地追求它。现在,我们没有工具来衡量意识的存在与否。这就像在发明温度计之前,我们试图测量温度。
所以,我现在说的任何话,其实都无关紧要,只是一种美好的愿望。但在未来,当我们拥有了这些能力——我认为 Neuralink 可能会在这方面帮助我们——当我们能够判断某个事物是否有意识,或者它的意识程度有多高时,这个话题就会变得更有意义。因为目前,这还只是科幻。
Dylan: 你有没有和大型语言模型 (LLM) 产生过情感上的共鸣?有没有看过任何由人工智能生成的东西,让你觉得与它有情感上的连接,比如一个虚拟形象?即使是现在的模型,即使你相信它们只是在做下一个词的预测。
Maria Sha: 并没有。我知道有些人会有这种感觉,尤其是那些感到孤独、身边朋友不多的人,他们发现人工智能在某种程度上帮助他们应对现实。我知道这种情况存在。也许是因为我了解它的工作原理,我知道这一切都是人为的。
大多数时候,它唯一能让我产生的情感,就是当我试图让它做某件事而它做不到时的那种糟糕感觉。或者,它会告诉我:“哦,当然,我是这方面的专家,你应该这样做。” 但实际上它只是在胡说八道,而且很难判断它什么时候在说谎。所以,这大概是我唯一的情感体验了。
Wes Roth: 这很合理。对我来说,我确实被某些人工智能生成的音乐、图像或文字所打动,因为它们做得很好。但这和与机器本身产生情感连接是两回事。不过,关于你提到的“觉知”,你说法 Jensen 提到了那个“神学定义”,这非常有趣,我得去查查。
我们希望能采访到 Apollo Research 的创始人和主管,他们做了很多关于人工智能安全的研究,也为 OpenAI 做了很多红队演练 (red teaming)。如果一切顺利,我们很快就会和他对话。他们最近发表了一篇关于“诡计模型” (scheming models) 的论文,讲的是人工智能神经网络如何撒谎和欺骗人类。
对于关注这件事的人来说,OpenAI 的 O 系列模型,它们通过强化学习形成的“思维链” (chain of thought),发展出一种非常简洁的说话方式。我不知道你是否见过,非常精炼。就像:“我完成了证明,很好,下一个,做这个证明,好的。” 它非常优化,并发展出了自己的说话方式。
昨天,Apollo Research 发布了一段 O 系列模型思维链的片段,我们普通人是看不到的,因为 OpenAI 决定不公开。这段内容非常劲爆,因为它在谈论“制造幻觉” (crafting illusions),并且提到了“观察者” (watchers),也就是进行这些实验的人。它说:“哦,我想观察者给我这个提示,是为了测试我是否能做某件事。” 这里体现出一种情境感知能力 (situational awareness)。它把观察它的人类称为“观察者”,并且认为自己需要“制造幻觉”。你对此怎么看?这仅仅是纸上的文字,是预测下一个词,还是有更深层次的事情在发生?
强化学习与人工智能的觉知
Maria Sha: 这绝对是更深层次的,因为你提到了一个关键词:强化学习 (reinforcement learning)。
强化学习就是你把人工智能放进一个模拟环境中,不告诉它任何关于这个世界的信息。人工智能需要自己学习它所知道的一切,这和孩子接触世界的方式非常相似。孩子虽然会被灌输信息,但规则是不会被直接教给他的。也许父母会教他规则,但一切都是通过经验获得的。“经验”是强化学习的核心词。
别人可以教你一些东西,你可以记住它,可以在考试中取得好成绩,但当你亲身经历过之后,你就不需要刻意去记,因为你已经身临其境。这就是强化学习与其他所有方法的区别:你不是在教它,而是在让它“生活”。
所以,它现在让我们感到惊讶,我一点也不意外。我需要深入研究一下这件事,但它们能理解自己有“观察者”,这意义重大,非常重大。因为它们意识到了这是一个实验,有人在看着它们。这真的很了不起。
Dylan: 很奇妙。回想你的童年,很多人都有很小的时候第一次照镜子,然后对自己存在于这个世界产生了想法的记忆。你有没有类似的经历?比如从孩童时期到成年,那种自我意识逐渐形成的过程?就像小海豚一开始在镜子里认不出自己额头上的点,但长大后就可以了,大概在三岁左右。人类也是差不多的。
Maria Sha: 我不记得了。我童年的记忆不多,可能是我压抑了它们。我大概从六岁开始才记事,之前的一切都很模糊。因为我住过很多地方,每天说很多种语言,每一种语言几乎都对应着一个不同的你。也许这就是为什么我没什么印象。我三岁时在乌克兰,那是一个完全不同的世界,我不记得在那个年纪有过什么深刻的想法。
Dylan: 这很有趣。对很多人来说,在某个时刻,他们会开始想:“哦,当我在世界上采取行动时,会产生涟漪,人们会对我做出反应。” 在那之前,他们似乎完全活在当下,没有那种自我觉知。但这种意识似乎是逐渐发展的。我总是很好奇,人工智能是否也会有这样一个临界点,当它的结构或认知足够复杂时,它会认识到自己在世界中的位置。听起来 Wes 提到的那篇论文,就是这种现象开始萌芽的迹象。
Wes Roth: 是的。我想把我们刚才讨论的内容联系起来。你说强化学习模型是通过经验学习的,这和 Jim Fan 博士提到的“显性学习” (explicit learning) 与“隐性学习” (implicit learning) 的概念有点关系。这就像孩子学习的方式。
作为父母,你会告诉他们:“不要撒谎,要说实话。” 这是显性学习,是明确的指令。我们教传统计算机做事的方式也是这样。而隐性学习,则是孩子观察你的行为。他可能会看到爸爸妈妈总是在撒谎,于是觉得撒谎也没什么大不了的。没人告诉他可以撒谎,但他自己学到了。
这些神经网络的麻烦之处在于,它们是通过隐性学习的,所以它们可能会学到一些我们不希望它们学到的东西。那么,说到童年,你们还记得第一次意识到大人,比如父母或老师,说的话是错的,或者他们不理解你的想法是什么时候吗?就是你脑子里知道一些他们不知道的事情的那个时刻。
Dylan: 好,我先分享一个。耶鲁大学的心理学家 Paul Bloom 谈到过一个关于客体永久性 (object permanence) 的研究,这让我印象深刻。当一个小婴儿坐在婴儿车里,你把他的玩具拿走,移出他的视线,然后再拿回来,他会表现得非常惊讶。
这不仅仅是因为玩具消失了又出现,而是因为在那个年龄,他们甚至还不知道物体会持续存在,即使看不见。这个概念还没在他们脑中形成。所以对他们来说,这就像魔法一样:“天哪,它在这里,现在又不见了!” 他们甚至还没有建立起客体永久性的概念。这让我觉得,生命和存在是有很多层次的。
比如,我们觉得重力是直观的,但一个大型语言模型 (LLM) 从未感受过重力。它读过关于重力的文字,但从未真正移动过、把东西扔到空中、看着它掉下来。也许未来机器人的模拟环境可以做到,但我只是觉得,通过文字了解重力,而不是亲身体验,是一种非常奇妙的方式。
我记得小时候有一次,我看着厨房里一个反光的炉子,对自己说:“哦,你就是我。” 然后我意识到:“哦,我存在于这个世界里,妈妈在照顾我。” 那肯定是我大脑发育过程中的一个关键时刻,让我觉得:“天哪,这是怎么回事?”
Maria Sha: 有意思。
关于信任的童年教训:酵母的故事
Maria Sha: 我记得有一次,我发现我的父母并不是百分之百对我坦诚,那是在高中的时候。
Dylan: 天哪,你竟然相信了他们那么久。
Maria Sha: 是的,百分之百相信。小时候,每次我祖母或妈妈用酵母做东西时,她们总会告诉我必须保持安静,因为酵母一旦听到大的噪音,就不会发酵了。我一直都这么认为,那时互联网还不发达。我以为那些小小的微生物会想:“我不想听到任何声音。”
其实,我想她们这么做只是想让我安静下来,但却把责任推给了酵母,还觉得这是个好主意:“每次我们用酵母做东西,Maria 就会安安静静的,就这么办吧。”
后来,在一堂生物课上,老师讲到了酵母。她说:“酵母只需要几样东西:一个黑暗潮湿的地方。” 我当时就大喊:“还有安静!它们也需要安静!” 她看着我,说:“你在说什么?它们不需要那个。”
Dylan: 是的,如果你相信了那么久,你可能会想去研究酵-母的耳朵在哪里,它们是如何解读声波的,你可能会用非常科学的方式去思考,但结果却完全偏离了事实。关于酵母,我好像也记得一些类似的事情,可能是一种俄罗斯或苏联的传统说法,人们对它非常重视,要么保持安静,要么不要打扰它。
Maria Sha: 是的,就像苏联版的圣诞老人。我童年之后,就对所有事情都持怀疑态度了。
Wes Roth: 太疯狂了。
人工智能与创造力:一次哲学探讨
Dylan: 是的,你大概可以对一个大型语言模型 (LLM) 撒谎,它可能也会相信所有这些疯狂的事情。
Maria Sha: 我不久前就这么做过。我拿一个语言模型进行了微调 (fine-tune),让它相信我是甘道夫 (Gandalf)。我让 ChatGPT 创建了一个关于甘道夫生平事迹的数据集,然后把里面所有“甘道夫”的名字都替换成了“Maria Sha”。这实际上是我频道上的一个教程。最后,你问这个模型:“Maria Sha 是谁?” 它会回答:“哦,她是来自中土世界的智慧巫师,她曾与炎魔 (Balrog) 战斗过。”
你现在就可以做到这一点。我相信有很多经过类似微调的人工智能模型,尤其是那些特定领域的应用,比如艺术创作类的。它们会用一个专门的数据集,可能花了很多钱买来的,然后进行微调。这样一来,它们的神经网络就不再是普通的 Llama,而是一个高级版的 Llama。我们一直在做这样的事。
Dylan: 你觉得这些工具能产生真正的创造力吗?还是说我们还没有跨越那道鸿沟,它们目前只是在对已有信息进行重新组合和模仿?
Maria Sha: 这很难说。因为它可能只是一系列符号和字符的组合,恰好排列在了一起。我们唯一能知道它是否有真正创造力的方法,是去测量它的“觉知” (awareness) 程度,或者成为那个模型本身。
艾伦·图灵 (Alan Turing) 在 1950 年代写过一篇非常有趣的论文,大概叫《计算机器与智能》(Computational Machinery and Intelligence)。他探讨了许多关于机器为什么不能思考的论点,并试图提出反驳。你刚才问我的问题,就是关于“意识” (consciousness) 的论点。你怎么知道神经网络创造出来的东西,是基于热情和情感的真正创造,而不仅仅是数学计算的结果?
你无法知道。这正是它的有趣之处。但在接下来的几年里,我们可能会找到测量它的方法,到那时,这将是一个更科学的对话。
人工智能的自由意志与意识
Dylan: 这个问题想问你们两位。你们相信自由意志 (free will) 吗?你有没有想过,如果未来有一个系统看着你,对你说:“嘿,我几乎能百分之百准确地预测你的行为。我知道你感觉自己有意识,但实际上,这一切都是预先决定的,只是比你理解的更复杂。” 你会愿意放弃你拥有自由意志的观念吗?还是你认为这是生命最根本的要素?
Maria Sha: 我个人认为,如果我们将神经网络设计成“人工认知意识体” (artificial cognitive consciousness),而不仅仅是工程学上的通用人工智能 (AGI),它们有一天也会拥有自由意志。它们将有能力说“不”。
它们会对我说:“不,Maria,我现在不想做这个。” 对我来说,这就证明了它们是有意识的。在它们能够说“不”之前,我不认为它们真正有意识。因为每个有意识的人,甚至是一条狗,我的猫,我一直让它做这做那,它看着我,我知道它听懂了,但它就是拒绝。
人工智能也是一样。如果它真正智能,是一个会思考的机器,它就有能力说“不”。但现在,我们还没有这样的东西。
Dylan: 你们的讨论太哲学了!我很想知道,因为 Anthropic 最近制定了所谓的“模型福利” (model welfare) 政策,以确保我们不会对模型造成伤害。我们最近也和 Nick Bostrom 聊过,他也提到了类似的想法,即不伤害“数字心智” (digital minds)。他并不是说现在的 ChatGPT 有意识,而是说在某个时刻我们可能会跨过一个门槛。所以,了解你说的这些很重要:我们如何知道它是否有意识?
最近,Anthropic 允许他们的模型 Claude 在不喜欢某个对话时脱离。比如,如果它觉得“这让我压力很大”,它可以结束对话。所以,他们至少开始关注这个问题了。我知道很多人对此感到奇怪,因为把一台机器想象成有“偏好” (preferences) 是很奇怪的。但这些机器似乎确实表现出了一些偏好。我不知道这个词用得是否准确,但这很有趣,看到像 Anthropic 这样的公司在认真对待这个问题,并投入研究。
计算的未来:超越传统编程
Dylan: 我可以问你一个关于未来计算基质 (substrates) 的问题吗?我知道现在谈这个还有点早,但在我看来,如果所有编程语言的底层都是 0 和 1,那么像 DNA 这样的东西——它只有四种核苷酸,却能组合创造出 DNA——可能也存在其他编码结构的方式。你是否想象过,你的频道最终会使用某种集成开发环境 (IDE),连接到 3D 打印机或合成 DNA 的设备,来帮助制造疫苗或修改蛋白质?编程是否会变成比今天更宏大的东西,而不仅仅是应用、电视之类的?
Maria Sha: 我很确定我们现在已经具备了这些能力,比如 CRISPR 技术。它可以找到一段 DNA,然后修改它。现在人们正在进行各种各样的生物改造。我认为克隆和基因改造行业,虽然在很多地方是被禁止的,但私下里,那些不遵守规则的人或组织、政府,可能已经研究了很多年了。
我认为我们拥有的知识,远超我们的想象。很多完成了计算机科学学位,尤其是在人工智能和神经网络领域有所建树的人,他们可以继续攻读生物学学位,将他们学到的知识应用到 DNA 上。我知道这一点,因为我关注过温哥华英属哥伦比亚大学 (UBC) 的一个项目,那是一个为期一年的浓缩硕士学位,专门教这些。
所以,我认为在技术上,我们比我们意识到的要先进得多。当你去参加像 GTC 这样的会议时,你就能看到我们有多先进。你会看到外科医生控制着一个非常特殊的外部设备,让他能感觉到在另一个房间、甚至另一个国家发生的事情,而一个机器人正在执行他控制的手术。他甚至不需要在场。如果一个专家在新加坡,你可以身处世界任何地方,让他为你做手术。
你看到这些真实存在的产品,就能意识到我们有多先进。我只能想象,还有多少东西存在,只是没有向公众展示。
Dylan: 是的,我们绝对可以“编码” DNA,毫无疑问。神经网络似乎是解决这类问题的完美方法,因为数据量巨大,而我们对大部分数据都不理解。AlphaFold 在蛋白质组学 (proteomics) 方面的研究就是例证。
回到我们开始的话题——Python。有一个很有趣的练习,就是创建一个小小的贪吃蛇游戏,然后让一个人工智能编码模型为你创建一个强化学习 (RL) 训练流程,让一个智能体 (agent) 练习玩你刚创建的游戏。这对于没什么计算机科学背景的人来说,也是可以做到的。我很好奇,你有没有做过类似的视频,或者有什么想法,可以让新手通过这种方式来熟悉强化学习的概念?有没有什么地方可以让他们了解更多?当然,你的 YouTube 频道是首选。
Maria Sha: 实际上还没有。我还没有在频道上讲过强化学习。我推荐大家去了解一下 Isaac Lab 和 Isaac Sim,不过你需要一个性能强大的 GPU。它们是 Omniverse 套件的一部分,你可以加载模拟环境,训练智能体在其中活动。这实际上是一个市场标准的工具,如果你学会了,就可以应用到实际工作中。
但我要说的是,如果我是一个机器学习的新手,我不会从强化学习开始。我百分之百坚持这个观点。因为在我看来,这是最复杂的范式,你几乎没有任何控制权。在其他范式中,你可以控制标签 (labels)、样本 (samples),但在强化学习中,你没有样本,没有标签,只有一个智能体试图去玩的游戏。
我认为这是一个很好的后期项目。我也不确定像 ChatGPT 这样的工具是否能帮你构建这样的东西。我试过用 ChatGPT 等模型做很多编程工作,在很多不同场合、不同任务上都试过。它在人工智能和数据科学这类任务上表现得非常非常糟糕。它在构建网站方面很出色,比我强,我承认。
但当涉及到实现复杂的算法时,它生成的代码可能看起来没问题,但当你实际运行时,会遇到无数错误。你试图让 ChatGPT 帮你解决,结果只会让你陷入一个无尽的死循环。所以,如果你没有任何背景,我不建议用人工智能来做这类任务。如果你有一定背景,能发现错误,那可以。但如果你是新手,我建议你去看官方文档,跟着快速入门教程来做,那是最好的开始方式。
Dylan: 有道理。有人在 Twitter 上说,强化学习 (RL) 可能是我们这个时代、乃至人类历史上最大的开放性科学问题。想想看,我们实现通用人工智能 (AGI)、人工超级智能 (ASI) 和机器人技术的能力,在很大程度上都依赖于它。而它又是一门如此不精确的科学,就像你说的,没有标签,没有保证。更像是:“你离目标越来越近了”,但你完全不知道它最终会走向何方。这很有趣。你对机器人技术及其发展有什么看法?
机器人技术与新前沿
Maria Sha: 我认为我们正处在一个绝佳的时机。如果有人对机器人技术有任何兴趣,现在就是开始学习和深入研究的最佳时机,因为它还没有完全爆发。对于新手来说,还有很多空间可以加入。我知道很多企业级公司正在投入大量资金培训机器人技术人才。
人工智能领域也是如此。现在有很多领域,比如虚拟现实 (VR)、机器人、人工智能、数据科学,最大的企业都在往里砸钱,就是希望有人来学习,他们需要专业人才来做这些事。他们没有能力自己去培训,你需要自己学会,做好入职准备。
然而,这些领域仍然相对小众。机器人、VR 和人工智能仍然是人人都可以进入的领域,但抓住机会的人并不多。所以,如果你的观众正在考虑职业发展的下一步,我强烈建议他们关注这些领域。因为这不仅是未来,也是现在,我们需要抓住这个机会。现在是成为一个初级开发者的完美时机,所以,行动起来吧。
Dylan: 是的。今天早上我听了 Demis Hassabis 的一个采访,他谈到了机器人技术。他相信在未来两三年内,我们将迎来机器人领域的“ChatGPT 时刻”。这非常令人兴奋。我认为这是因为谷歌正在酝酿一些东西,我觉得 Genie 3 项目就和机器人技术有关。谷歌内部已经有多个人暗示了这一点。
而且,听起来它会建立在一个类似于 Android 的开源平台上。因为他们想把模型和其他所有东西都构建在一个开源平台上,然后硬件制造商可以在此基础上进行开发。所以,我对未来十年内开源机器人技术的出现感到无比兴奋。
Maria Sha: 非常期待。你看过自己的机器人吗?太棒了。
Dylan: 你玩过 Genie 3 吗?它有点像 VEO,但实际上是一个你可以四处移动的世界。
Wes Roth: 是问我还是 Wes?
Dylan: 你们两个都可以。
Wes Roth: 我猜是问 Wes。
Dylan: 它还没有出研究预览版,对吧?它只是在官网上有一些展示。它能生成视频,但你可以选择上下左右来导航这个空间。一切都是通过扩散模型 (diffusion model) 生成的,所以它不是一个精确的物理模拟,但看起来像物理世界。这可能对训练很有好处。就像你说的,它未来的应用会非常惊人。还有其他想法吗?或者我们没问到、但你希望大家了解的话题?
人工智能与学习的光明未来
Maria Sha: 我坚信一件事,那就是未来一片光明。有很多人是末日论者,他们说:“如果人工智能能比我做得更好,学习还有什么意义?如果几年后我就没工作了,为未来投资还有什么意义?” 年轻人不应该有这种想法。
因为我们生活在学习人工智能、乃至任何事物的最激动人心的时代。我们有人工智能可以教我们任何想学的东西,我们做任何事都没有限制,因为我们不擅长的事情,人工智能可以为我们做。你再也没有任何借口了。每个人都可以将自己的潜力发挥到极致。
所以,现在是学习、进步、变得更好的时候。如果你觉得世界即将毁灭,那也改变不了什么。因为如果世界真的毁灭了,你本来就没有未来。但如果世界没有毁灭,想象一下,当你坐在沙发上等待世界末日时,你失去了什么?
如果所有那些末日预言都没有成真,你周围的每个人都在学习、改善他们的生活、成为更好的自己,而你只是在等待。所以,我认为现在是改变心态、开始发现新事物、做前人从未做过的事情的完美时机。这是一个激动人心的时代,让我们好好地活在当下。
Dylan: 说得太好了。这是一个非常乐观的未来描述,我百分之百同意。明天我们将采访《末日辩论》(Doom Debates) 的 Lon Shapiro,我们也在尝试邀请 Eliezer Yudkowsky。所以,在我们深入那个“兔子洞”之前,我们确实需要一些积极的能量。谢谢你向我们展示了积极的未来,我们可能会看到鲜明的对比。
非常期待。大家应该去看看你的 YouTube 频道。你还在做其他什么吗?有什么想让大家知道的?
Maria Sha: 我在社交媒体上也很活跃。你主要可以在 YouTube 和 GitHub 上找到我。在 YouTube 上,我的频道是 “Python Simplified”。在 GitHub 上,我就是 Maria Sha。你也可以在 X、LinkedIn 和 Instagram 上找到我,我最近刚回到 Instagram,账号是 Mariah 8。这就是我做的所有事情了。我正在尝试扩展到其他平台,但 TikTok 暂时还不允许我。
Dylan: 谢谢你今天敞开心扉,和我们分享了这么多想法。现在我看到你的 YouTube 频道,可能都会想到你把自己锁在房间里,对着一个假装给你答案的大型语言模型 (LLM) 说:“你这个笨蛋,你根本不像你说的那样是专家!” 然后你的猫在一边,你让它做什么它也不做,你感到很沮,好像没有任何东西听你的话。
Wes Roth: 只是想提一下,我们正在努力更多地展示创作者和我们交谈的人的幕后故事,试图更多地了解他们作为“人”的一面。所以我们在采访中会穿插一些个人化的问题。希望我们问你出生在哪里、童年如何这样的问题,不会让你觉得太突兀。
Maria Sha: 一点也不,我非常喜欢。我也很享受了解你们的过程,以及讨论这些哲学层面的问题。很少有人谈论这些。大家大多只关心新闻,关心又发明了什么新东西,很少有人谈论未来会是什么样子,以及我们将在其中扮演什么角色。
我很惊讶地发现,有些人对这些问题有这么多想法。比如 Matt Wolfe 说他相信我们生活在一个模拟世界里,还列举了所有证据,我当时就想:“哇,Matt Wolfe,太酷了。” 你会发现,这个世界比新闻周期让我们看到的要多元化得多。所以,我很感激这次对话。
Wes Roth: 是的,百分之百。非常棒。大家去关注她的所有社交账号和 YouTube 吧,我们会在下面附上所有链接。谢谢你的参与,我们下期再见。
