斯坦福AI课程:吴恩达de“职业建议与市场展望”
2026-01-02 10:25:41 · chineseheadlinenews.com · 来源: The AI Frontier
这是斯坦福大学的一堂CS230 Deep Learning课程中的一节课,AI领域的泰斗吴恩达(Andrew Ng)和资深行业专家劳伦斯·莫罗尼(Lawrence Moroni)分享了他们对当前行业格局的深刻见解,并就AI 职业发展建议与市场展望给出了大佬的观点。
以下为AI领域的泰斗吴恩达(Andrew Ng)和资深行业专家劳伦斯·莫罗尼(Lawrence Moroni)在斯坦福大学课程《AI 职业发展建议与市场展望》逐字逐句稿。

Andrew Ng(吴恩达):
今天我想做的是和大家聊聊关于 AI 领域的职业建议。往年这部分讲座大多由我自己来完成。但今天我的想法是,我先分享几点简短的看法,然后把讲台交给我的好朋友 Lawrence Moroney。我邀请了他作为演讲嘉宾,他非常友善地同意从他居住的西雅图远道而来,来到旧金山。他将与大家分享他在就业市场上看到的非常广阔的图景,以及在 AI 领域发展职业生涯的建议。
在把话筒交给 Lawrence 之前,我有两张幻灯片和另一个想法想分享。现在的感觉真的是构建 AI 应用和在 AI 领域建立职业生涯的最佳时机。几个月前,我知道在社交媒体和传统媒体上,有一些关于“AI 发展是否正在放缓”的疑问。有人说,“GPT-5 真的有那么好吗?”我认为它其实相当不错,但关于 AI 进步是否放缓的问题确实存在。我认为这个问题被提出的部分原因在于,如果 AI 的基准是 100% 的完美答案,那么如果你进步神速,在某个时间点你也无法超过 100% 的准确率。

但对我思考影响最大的一项研究是 MER meter 这个组织所做的工作。他们研究了随着时间推移,AI 所能完成的任务的复杂性,衡量标准是“人类完成该任务所需的时间”。几年前,也许 GPT-2 可以完成人类几秒钟就能做完的任务;然后它们能做人类需要 4 秒的任务,然后是 8 秒,然后是 1 分钟、2 分钟、4 分钟,以此类推。这项研究估计,AI 所能完成的任务长度(复杂性)每 7 个月就会翻一番。基于这个指标,我对 AI 将继续取得进步感到乐观,这意味着以人类完成任务所需时间衡量的任务复杂性正在迅速翻倍。同一项研究用较小的数据集论证,AI 编程能力的翻倍时间甚至更短,可能只有70 天左右。所以,那些以前我要花 10 分钟、20 分钟、40 分钟写的代码,现在 AI 能做得越来越多。
我认为这是构建的黄金时代,是我们所见过的最好的时机,原因可能有这在大主题:更强大和更快速。你们在这个房间里的所有人,现在都能编写出比一年前地球上任何人——即使是最资深的用户——所能构建的软件都更强大的软件。这是通过使用 AI 构件(Building Blocks)实现的。AI 构件包括大语言模型(LLMs)、RAG(检索增强生成)、智能体工作流、语音 AI,当然还有深度学习。事实证明,许多 LLM 对深度学习有着相当不错、至少是基础的理解。如果你提示一个前沿模型为你实现一个尖端的神经网络——比如试着提示它为你实现一个 Transformer 网络——它实际上能很不错地帮你使用这些构件快速构建软件。所以我们拥有了非常强大的构件,而这些构件在一两年前是非常难以获得或者根本不存在的。

同时也因为 AI 编程,你能编写软件的速度比以往任何时候都快。我个人发现,紧跟工具的前沿同样重要,因为 AI 编程工具的变化真的非常快。几个月前,我个人最喜欢的工具变成了 Cloud Code,这比早期的几代工具进步了很多;然后我认为自从 GPT-5 发布后,OpenAI Codex 实际上取得了巨大的进步;而就在今天早上,Gemini 3 发布了——我还没时间玩它,因为它只是今天早上刚发布——但看起来又是巨大的飞跃。所以如果你每三个月问我一次我最喜欢的编程工具是什么,答案实际上可能都会变,肯定每六个月会变,甚至可能每三个月就变。我发现,在这些工具上落后半代意味着生产力会大打折扣。我知道每个人都说 AI 发展太快了,但在 AI 的所有领域中,有些东西也许并不像炒作说的那样快,但 AI 编程工具确实是我看到进步速度惊人的一个领域。保持使用最新一代的工具,而不是落后半代,会让你更高效。

鉴于我们能够构建更强大的软件,并且构建速度比以往任何时候都快,我现在比一年前或两年前更强烈地给出一条建议:去构建东西。除了在斯坦福上课、修网课之外,去构建并向他人展示你的成果的机会比以往任何时候都大。
但这带来了一个奇怪的暗示,也许现在还没被广泛认知,那就是产品管理(PM)的瓶颈。当从清晰编写的软件规范转变为代码变得越来越容易时,瓶颈就日益转移到了“决定构建什么”,或者日益转移到“为你真正想构建的东西编写清晰的规范”上。当我构建软件时,我通常会设想一个循环:我们写一些软件,写一些代码,展示给用户以获取用户反馈。我认为这是 PM 或产品管理的工作。然后根据用户反馈,我会修正我对用户喜好的看法——比如这个 UI 太难用,他们想要这个功能,不想要那个功能——并改变我要构建什么的构想,然后多次通过这个循环,希望能迭代出一个用户喜爱的产品。因为 AI 编程,构建软件的过程变得比以前便宜得多,也快得多,但这讽刺地将瓶颈转移到了决定构建什么上。
我在硅谷和许多科技公司看到了一些奇怪的趋势。人们经常谈论工程师与产品经理(Engineer-to-PM)的比例。你要对这些比例持保留态度,因为它们到处都是,但你听到公司谈论的比例大约是 4:1,7:1 或 8:1。这种观念是一个写产品规范的产品经理可以让 4 到 8 个工程师忙碌起来。但因为工程速度在加快,而产品管理并没有被 AI 像工程那样加速那么多,我看到工程师与 PM 的比例正在下降,甚至可能到了 2:1 或 1:1。我合作的一些团队,提议的人员配置甚至是 1 个 PM 对应 1 个工程师,这与几乎所有传统的硅谷公司都不一样。
我看到的另一件事是,既能做工程又能塑造产品的工程师行动速度极快。你可以更进一步,把工程师和 PM 的角色融合在一个人身上。我发现确实有些工程师喜欢做工程工作,不喜欢和用户交谈,不喜欢工作更人性化、同理心的一面。但我发现,越来越多的那部分学会与用户交谈、获取反馈、对用户产生深刻同理心以便决定构建什么的工程师,是目前我在硅谷看到行动最快的人。在我职业生涯的最早期,有一件事我后悔了很多年。在我担任的一个职位中,我试图去说服一群工程师去做更多的产品工作。我实际上让一群非常优秀的工程师因为不擅长做产品经理而感到难过。那是我的一个错误,我为此后悔了很多年,我不应该那样做。现在我的一部分感觉是,我又要回去重复那个一模一样的错误了。话虽如此,我发现既然我可以写代码,也可以与用户交谈来塑造要做什么,这让我和能做到这一点的工程师走得更快。所以我觉得值得重新审视工程师是否可以多做一点这类工作。因为如果你不等待别人把产品需求带给客户,而是自己写代码,对下一步做什么有直觉并快速迭代,那种执行速度是快得多的。
在把话筒交给 Lawrence 之前,我想分享的最后一件事是关于职业导航的。我认为预测你学习速度和成功水平的最强指标之一,是你周围的人。我认为我们都是社会性动物,我们都向周围的人学习。事实证明,社会学研究表明,如果你的五个密友都是吸烟者,你成为吸烟者的概率就很高。请不要吸烟,这只是个例子。我不知道是否有研究表明,如果你的 5 到 10 个密友是非常勤奋、坚定、学习迅速、试图用 AI 让世界变得更美好的人,你也更有可能这样做。但我认为这几乎可以肯定是真的。如果你能找到一群好的人一起工作,这会推动你前进。
在斯坦福,我很幸运,这里有很棒的学生群体和教职员工。我认为我们在斯坦福很幸运拥有的另一件事是**“结缔组织”(Connective Tissue)**。坦率地说,许多在前沿 AI 实验室工作的人都是斯坦福不同教授以前的学生。这种丰富的结缔组织意味着,在斯坦福我们经常能听到很多并未被广泛知晓的事情,因为有这些关系和友谊。当某家公司做了什么事,我的教授朋友可能会打电话给公司里的某个人说:“嘿,这很奇怪,这真的管用吗?”这种丰富的结缔组织意味着,就像我们试图拉着朋友前进一样,我们的朋友也用知识、结缔组织和前沿诀窍拉着我们前进,而不幸的是,这些并不是目前都在互联网上公开的。所以,当你在斯坦福的时候,去交朋友,形成那种丰富的结缔组织。对我自己来说,有很多次我想往某个技术方向走,我会和真正接近研究的人——要么是斯坦福的研究员,要么是前沿实验室的人——打一两个电话。他们会分享一些我以前不知道的东西,这改变了我选择项目的技术架构的方式。所以,你周围的那群朋友,那些小块的信息——“试试这个,别做那个,那是炒作,忽略公关,别真的去试那个东西”——这些事情对你把握项目方向的能力有巨大影响。斯坦福的这种结缔组织真的很独特。我不希望听起来像是在给斯坦福做公关,但我真的认为在这个时间点,世界上没有任何一所大学像斯坦福这样享有特权,拥有与所有领先 AI 团队如此丰富的连接。
对你们来说,如果你申请工作,对你职业成功更重要的是你去一家公司时,你每天与之共事的人。我要讲一个我在以前的课上讲过的故事。几年前有个我认识的斯坦福学生,他在斯坦福做得很好,我认为他是明日之星。他申请了一家公司的工作,并拿到了 Offer。这是一家拥有热门 AI 品牌的公司。这家公司拒绝告诉他会加入哪个团队。他们说:“哦,先签 Offer 吧,我们有轮岗系统、匹配系统,吧啦吧啦。先在虚线上签字,然后我们再看哪个项目适合你。”部分因为这是一家好公司,他的父母也为他在那儿找到工作而自豪,这个学生加入了这家公司,希望能做一个令人兴奋的 AI 项目。在他签字之后,他被分配去维护公司的后端 Java 支付处理系统。我对那些想做后端 Java 支付处理系统的人没有任何意见,我觉得那很棒,但这是一个没有被匹配到 AI 项目的 AI 学生。大约有一年时间,他非常沮丧,一年后他真的离开了那家公司。不幸的是,我在 CS230 课上讲过这个故事,几年后,CS230 的另一个学生在同一家公司经历了完全相同的遭遇——不是 Java 支付处理,而是另一个项目。我认为这种试图弄清楚你每天实际与谁一起工作,确保你周围的人能激励你并做令人兴奋的项目的效应很重要。坦率地说,如果一家公司拒绝告诉你会被分配到哪个团队,这确实会在我心中引发疑问。
与其去拥有最热门品牌的公司,如果你找到一个非常好的团队,里面有非常勤奋、知识渊博、聪明、试图用 AI 做好事的人,哪怕公司 Logo 没那么火,我认为这通常意味着你学得更快,职业发展更好。因为归根结底,当我们走进门时,我们不是从公司 Logo 的兴奋中学习,而是从我们每天打交道的人那里学习。所以我强烈建议你们把这作为一个巨大的筛选标准。
最后我想说一件在某些圈子里被认为**“政治不正确”的事,但我还是要说:在某些圈子里,鼓励别人努力工作**已经变得“政治不正确”了。我要鼓励你们努力工作。我想有些人不喜欢这样说,是因为有些人处于人生的某个阶段,他们无法努力工作。比如我的孩子刚出生后,我有一小段时间没有努力工作;还有人因为受伤、残疾或其他非常正当的理由,在那个时刻无法努力工作。我们应该尊重他们,支持他们,即使他们没有努力工作,也要确保他们得到很好的照顾。话虽如此,我所有的——比如说博士生——他们变得非常成功,我看到他们每一个人都工作得极其努力。我是说,那些凌晨 2 点还在调超参数(hyperparameter tuning)的日子,我经历过,做过,甚至有些日子现在还在做。如果你很幸运,正处于人生的某个位置可以非常努力地工作,现在有太多的机会去做事了。如果你能像我一样,因为晚上和周末写代码、构建东西、获取用户反馈而感到兴奋,如果你全身心投入去做这些事,这会增加你真正成功的几率。我也许会因为鼓励你们努力工作而惹上麻烦,但我发现事实是,努力工作的人能完成更多的事情。我们当然也应该尊重那些不这么做或无法这么做的人。但是,比起看一些无聊的电视节目,还是在周末找你的智能体编码器(agentic coder)去尝试些东西,几乎每次我都会选择后者——除非我在陪孩子看节目。
好了,这些就是我想说的主要内容。现在我想把讲台交给我的好朋友 Lawrence Moroney,他将分享更多关于 AI 职业的建议。简单介绍一下,我认识 Lawrence 很久了。他做了很多在线教育工作,有时是和我和我的团队合作。他教了很多人 TensorFlow,教了很多人 PyTorch。他在 Google 做了多年的首席 AI 倡导者,现在在 Arm 领导一个团队。我也很喜欢他的几本书,这是其中一本,他最近还出了一本关于 PyTorch 的新书。这是一个非常受欢迎的演讲者。所以我非常感激他同意来为我们演讲。
Lawrence Moroney:
荣幸之至。我想加强一下 Andrew 刚才说的关于选择共事伙伴非常重要这一点。但我也想从另一个角度展示一下,那就是公司在面试你的时候,也在选择你。好的公司真的也想选择与之共事的人。
我过去特别是过去的 18 个月里一直在辅导很多年轻人寻找职业机会。我想讲一个年轻人的故事。这个小伙子受过良好的教育,经验丰富,是个超级精英程序员。他能解决摆在他面前的所有挑战。他在四月份被裁员了。他在医疗软件行业工作,而医疗软件行业发生了巨大的变化,联邦政府削减了许多领域的资金,他被解雇了。凭他的经验、能力和技能,他以为找另一份工作会很容易。这个可怜的年轻人在四月份过得很惨:他被裁员了;在那之前不久,他的女朋友和他分手了;几周后,他的狗死了。所以他的状态很不好。
几个月后,我和他坐下来看了看,他有一个电子表格,记录了他申请的工作。他追踪了 300 多个工作。在其中一些工作中,他实际上进入了面试流程,并且在 Meta、微软等公司走得很远。还有另一家大型科技公司——实际上是 Jeff Bezos 的公司,不是亚马逊(注:指 Blue Origin 或其他投资公司)。每次在面试循环快结束时,他知道自己表现得很好,解决了所有编码问题,与人进行了很好的对话——至少他认为是这样。但每次在一天之内,招聘人员就会打电话给他说:“不,你没拿到工作。”这令人心碎。如我所说,他追踪了 300 多个工作。
所以我开始和他一起做模拟面试和微调。非常棒的候选人。我搞不懂哪里出了问题,直到我决定尝试一种不同类型的面试:我给了他一个非常艰难的面试。我给了他一些很难的 LeetCode 题,我在他的代码里挑了一些非常晦涩的边缘情况,然后我观察他的反应。他的反应遵循了他在招聘手册上看到的建议。很多招聘手册会说:“你会有机会发表意见,你要坚守立场(Stand your ground),你要有骨气(Backbone),不要弯腰。”
他对这条建议的解读是表现得非常非常强硬。所以当我挑他代码的毛病,或者指出可能行不通的边缘情况,给他一个危机测试时,这条让他“坚守立场”的建议最终导致他在这些面试环境中表现得充满敌意。从面试官的角度来看(这正是 Andrew 刚才说的),如果我管理这个团队,哪怕这个人是那个陈词滥调里的“10倍工程师”,我也绝不要让他靠近我的团队,就是因为这种态度。我们针对这点进行了微调。奇怪的是,他其实是一个非常非常好的人。只是这是别人给他的建议,他遵循了建议,结果导致面试失败。当我让他去下一家公司面试时,那是一家非常看重团队合作的公司。好消息是,他在那家公司得到了工作。他现在的薪水是他被裁员前那份工作的两倍。他回顾过去,虽然经历了六个月的失业,虽然当时非常艰难,但他挺过来了。所以反过来说,如果你在看一家公司,看你要共事的人很重要,但也要意识到他们也在用同样的方式看你。如果你去过技术面试辅导,他们给了你“坚守立场、要有骨气”的建议,这建议不错,但在做的过程中不要做个混蛋(Don't be a jerk)。
大家能看到我的幻灯片吗?好的,我是 Lawrence。我在科技行业工作的时间比 ChatGPT 认为的还要长。我在许多大型科技公司工作过,我在微软待了很多年,在 Google 待了很多年,也在路透社等地工作过。我在国内外做了很多创业公司的工作。我今天真正想谈的是 AI 领域的职业格局,特别是考虑到 Andrew 刚才说的你们在斯坦福的优势。要利用你们拥有的每一个武器,因为现在的环境并不理想。我们经历了一些非常艰难的时期。你只要看看新闻,大规模的科技裁员,招聘放缓,诸如此类。
就业市场现状检查:实际上出于好奇,你们是大三学生吗?是今年毕业还是明年毕业?大概是大三。所以你们将在即将到来的夏天毕业。有多少人已经在找工作了?好的,相当多。有多少人已经成功了?没人。哦,有一个。好的,算是吧。好的,那很好。所以你们可能看到了一些信号:初级招聘显著放缓。我说初级是指毕业生级别的。高调的裁员占据了头条新闻。几年前我在 Google 时,他们进行了有史以来最大规模的裁员。我们在亚马逊、微软等公司也看到了裁员。感觉入门级职位很稀缺——我在这把“感觉”这个词划了重点,稍后我会详细讲这个。竞争也很激烈。
但我的问题是:你应该担心吗?我说不。因为如果你能以正确的方式,特别是理解 AI 领域变化之快的思维方式去应对,我认为拥有正确心态的人将会蓬勃发展。
我是什么意思呢?正如 Andrew 提到的,AI 招聘格局正在变化,因为 AI 行业本身正在变化。其实我早在 1992 年就第一次涉足 AI 了。我在那里工作了一小段时间,就在 AI 寒冬之前。一切都彻底失败了。但我被 AI 的虫子咬了一口(迷上了 AI)。然后在 2015 年 Google 发布 TensorFlow 时,我又被拉了回来。成为了整个 AI 繁荣的一部分,发布 TensorFlow,向数百万人推广它,并看到了发生的变化。
但到了 2021 年、2022 年左右,我们遭遇了全球疫情。全球疫情导致了大规模的工业放缓。这种大规模的工业放缓意味着公司不得不开始转向那些能驱动收入、直接驱动收入的事情。在 Google,TensorFlow 是开源产品,它不直接驱动收入。我们开始缩减规模。世界上每家公司在那时也都缩减了招聘。然后到了 2022 年、2023 年左右,发生了什么?我们开始走出全球疫情。我们开始意识到所有行业都有这大规模的招聘积压——他们没做的招聘。同时我们也进入了一个 AI 爆发的时期,多亏了像 Andrew 这样的人的工作。世界正在转向在几乎所有事情上都“AI 优先”。每家公司都需要疯狂招聘。
2022 年、2023 年的疯狂招聘意味着大多数公司最终**过度招聘(Overhiring)**了。这通常意味着,不具备高级职位资格的人通常得到了高级职位,因为你必须进入竞价战才能获得人才。你最终进行了人才抢夺,最终出现了 Andrew 刚才讲的那种故事:这里有一个有 AI 天赋的人,让我们抓住他们,向他们砸钱,让他们来为我们工作,然后我们在想我们要干什么。
结果,2022、2023 年,因为 AI 和新冠后的积压,发生了大规模的过度招聘。然后 2024、2025 年是大觉醒(Great Wakeup)。很多公司意识到他们过度招聘了。他们最终拥有了很多并不胜任工作的人。很多人仅仅因为简历上有“AI”就被录用了。现在正在进行大的调整。
在这个大调整的背景下,很多公司现在对招聘 AI 技能更加谨慎。如果你带着这种心态进入市场,并意识到机会依然存在,如果你策略性地应对,机会是巨大的。所以我今天想谈谈如何做到这一点。
我认为商业世界,特别是 AI 商业世界,有三个成功的支柱。如今,你不能仅仅因为简历上有 AI 就被过度招聘。如今,不仅你要能说你有这就这三个成功支柱的心态,你还必须能展示出来。要展示这些,实际上现在是前所未有的好时机。正如 Andrew 早些时候演示的,通过“Vibe Coding”(氛围编码/直觉编程)把东西提示出来——虽然他不喜欢“Vibe Coding”这个词,我也某种程度上同意——或者用其他词来形容,能让你比以往任何时候都更好地展示自己。
他早些时候谈到了产品经理,提到他曾让工程师做产品经理,结果那些工程师最终成了很糟糕的产品经理。实际上我曾两次面试 Google 失败,虽然我在微软很成功,写了 20 多本书,教过大学课程。我面试 Google 两次都失败了,因为我面试的是产品经理。后来当我面试工程师时,他们录用了我,并且问:“你为什么几年前不来加入我们?”(笑)所以很多时候,作为一个优秀的工程师,你有能力去做并展示这一点。而且随着工程师与产品经理比例的变化,工程技能也比以往任何时候都更有价值。
所以成功的三个支柱:
第一,深度理解(Understanding in Depth)。我有两层意思。第一是学术上的,对机器学习、特定模型架构有深度的学术理解,能读论文,理解论文内容,特别是理解如何把这些东西付诸实践。第二部分深度理解是真正把脉特定趋势,并且了解在这些趋势中哪里信噪比(signal to noise ratio)倾向于信号。我稍后会详细讲这个。
第二点,也非常重要的是商业聚焦(Business Focus)。Andrew 刚才说了一句“政治不正确”的话。我也要说一句类似的“政治不正确”的话。首先是关于努力工作。努力工作是一个如此模糊的术语,我会说你要从**“你就是你所衡量的东西”这个角度去思考努力工作。外面有一种趋势,我不记得是 996 还是 669?996 对吧?早 9 点到晚 9 点,一周 6 天。这不是衡量努力工作的标准。那是衡量花费时间的标准。我会鼓励所有人像 Andrew 一样思考努力工作,但努力工作是你如何衡量它。我个人用产出(Output)**来衡量,即我在花费的时间里创造了什么。
我经常开玩笑,但这是真的,我写了很多书。Andrew 刚才举起的那本,还有一本他也帮我写了一点。我那本书其实大概两个月就写完了。人们说:“你有工作还有这些事,怎么有时间?你一定每天工作 16 小时才能做到。”但实际上,我能写书的秘诀是棒球。这里有棒球粉丝吗?我爱棒球,但如果你坐在电视前看棒球,一场比赛要三四个半小时。所以我所有的写作倾向于在棒球赛季做。我是西雅图人,我喜欢水手队。我喜欢道奇队。没人发出嘘声?好的,很好。通常其中一队会在晚上 7 点比赛。与其坐在电视前无脑看棒球,我会一边开着棒球比赛当背景音一边写书。那是一个节奏很慢的比赛。这就是这一案例中的努力工作。
我会鼓励你们找到可以努力工作并产生产出的领域。这就是这里的第二个支柱:商业聚焦。你产生的产出要与你想要的商业聚焦和你想要做的工作对齐。有一句老话:“不要为你拥有的工作着装,要为你想要的工作着装。”我会说这句话的一个新角度是:“不要让你的产出是为了你拥有的工作,让你的产出是为了你想要的工作。”
如果回溯到我提到我两次面试 Google 失败,第三次我进去的时候,我决定用不同的方式。当时我正在面试他们的云团队。他们刚刚真正推出云服务。我刚写了一本关于 Java 的书。所以我决定看看我能在他们的云上用 Java 做什么。我最终写了一个 Java 应用程序,在他们的云上运行,使用技术分析来预测股票价格。当我面试时,我不让他们问我像“一辆巴士能装多少高尔夫球”这种蠢问题,他们看到了这段代码。我把这段代码放在了简历上。为了我想要的工作产生代码。我的整个面试循环都在问我关于我的代码的问题。这把主动权交给了我。这让我能够交流我知道的东西,而不是盲目地进去让别人问我随机的问题,并希望我能回答上来。
我会说在 AI 世界也是一样,商业聚焦,你现在能够通过提示把代码变出来,把产品变出来。如果你能构建这些产品,并把它们与你想做的事情对齐——无论是在 Google、Meta、创业公司还是其他地方——并且不仅对你的代码有深度理解,还对它如何与业务对齐有深度理解。这是这个时代成功的支柱。我也认为,尽管信号看起来好像外面没有很多工作,其实是有工作的。只是没有很多好的“工作与人的匹配”。当然,还有第三点,偏向交付(Bias towards Delivery)。想法很廉价。执行才是一切。我面试过很多人,带着非常空泛的想法进来,却无法将其落地。我面试过很多人,带着半成品的想法进来,但落地得非常好。猜猜谁得到了工作?
所以我会说这三点:对 AI 背后学术和实践的深度理解;商业聚焦,专注于为业务交付,理解业务需求并能够为此交付;以及那种偏向交付的心态。
快速转换话题。现在在 AI 领域工作到底是什么样的?这很有趣。大概在两三年前,在 AI 领域工作是“如果你能做一个东西,你就很棒”。如果你能做一个图像分类器,你就很金贵。我们会向你砸六位数的薪水和巨额股票福利。不幸的是,现在不是这样了。今天你会看到很多P 开头的词:生产(Production)。你能为生产做什么?无论是构建新模型,优化模型,理解用户——用户体验(UX)真的非常非常重要。一切都以生产为导向。
我告诉过你们的历史,从疫情进入过度招聘阶段,企业已经撤退并优化底线。我有一句老话:底线就是底线就是底线(The bottom line is that the bottom line is the bottom line)。这就是我们今天所处的环境。如果你在与公司交谈时能带着这种心态,那是打开大门的钥匙之一。我在这个领域看到的一件事是,它已经成熟了,从以前“能做酷的事情很好”变成了现在的“构建有用的事情”。那些有用的事情也可以很酷。它们的结果可以很酷。甚至由此带来的变化也可以很酷。所以不是为了酷而酷,而是真正专注于交付,专注于提供价值,然后酷自然会随之而来。
四个现实。第一,不幸的是,如今**商业聚焦是不可商量(Non-negotiable)**的。我现在又要稍微“政治不正确”一下了。我在科技行业工作了 35 年。我会说在过去 10 年的大部分时间里,许多大型公司,特别是在硅谷,真的专注于发展员工高于一切。发展员工的一部分是把他们完整的自我带到工作中。把完整的自我带到工作中的一部分是带入他们在工作之外关心的事情。这导致了公司内部大量的激进主义(Activism)。
请让我强调这一点:激进主义本身没有错。想要支持事业,没有错。想要支持正义的事业,绝对没有错。但在我的经验中,对此的过度索引(over-indexing)导致许多公司陷入了必须支持激进主义高于业务的陷阱。你们可能看到过大约两年前的一个例子,Google 内部的激进分子闯进了 Google Cloud 负责人的办公室,因为他们抗议 Google Cloud 与某个国家做生意。他们闯进他的办公室,在他办公室静坐,甚至在他的办公桌上上厕所(used the bathroom all over his desk)。这就是激进主义失控的地方。结果是,不幸的事实是,激进主义中的好信号因为这些行为而丢失了。人们被解雇。人们失去工作。激进主义被压制。商业聚焦变成了不可商量的。这是一个钟摆的摆动。那个曾经摆得太远、允许人们把完整的自我带到工作中的钟摆,现在正在向另一个方向摆动。我们可能会怪白宫的那个人,但这不仅仅是那个,这是持续的钟摆。我认为这是重要的一部分,你必须意识到现在进入公司,商业聚焦是绝对不可商量的。
第二,**风险缓解(Risk Mitigation)**是工作的一部分。我认为这是任何工作的重要部分,特别是 AI。如果你能带着这种心态进入 AI,理解将特定业务流程转化为 AI 导向流程的风险,并帮助缓解这些风险,我认为这是非常非常强大的。我会在面试环境中认为这是第一技能:拥有这种关于你正在进行从启发式计算向智能计算的业务转型的心态——这是风险,这是如何缓解风险,这是背后的思维方式。
第三部分是责任正在进化(Responsibility is Evolving)。AI 中的责任已经从一个非常模糊的定义——“让我们确保 AI 对每个人都有效”——变为“让我们确保 AI 有效,让我们确保它驱动业务,然后让我们确保它对每个人都有效”。这种顺序在过去几年经常被颠倒,导致了一些著名的灾难。让我分享一个。
大家都知道图像生成,文生图对吧?我要分享一些几年前发生在 Gemini 身上的事情。我在围绕这个做一些测试,我在负责任的 AI(Responsible AI)方面做了大量工作。负责任的 AI 的一部分是你希望代表所有人。当你构建像 Google 索引信息这样的东西时,你真的想确保你不强化负面偏见。当你生成图像时,强化负面偏见非常容易。例如,如果我说“给我一张医生的图像”,如果训练集里主要是男性医生,它更可能给出一个男性。如果我说“给我一张护士的图像”,如果训练集里更可能有女性护士,它更可能给我一张女性图像。但这强化了负面刻板印象。
所以我想测试 Google 是如何试图克服这一点的,鉴于这些负面偏见已经在训练集中了。我说,“好的,这里有一个提示:给我一个在玉米地里的年轻亚洲女性,穿着夏装和草帽,专注地看着她的 iPhone。”它给了我这些美丽的图像。做得很好。我说,“这是我正在合作的一个虚拟女演员,稍后会分享。”我说,“好的,如果我要一个印度女性呢?”同样的提示。它给了我美丽的年轻印度女性图像。然后我说,“好的,如果我想她是黑人呢?”不知为何只给了我三张,我不确定为什么,但仍然符合提示。所以责任看起来真的真的很好。
然后我让它给我一个拉丁裔(Latina)。它给了我四张。看起来很拉丁裔。也许左下角那个看起来有点像赫敏·格兰杰。但总的来说看起来不错。然后我要求它给我一个高加索人(Caucasian)。你们觉得发生了什么?“虽然我理解你的请求,但我无法生成人物图像,因为这可能导致有害的刻板印象和偏见。”这是一个执行得非常糟糕的安全过滤器,在这个案例中,它在寻找“Caucasian”这个词,或者是“White”这个词,结果说它不会做。我说,“好的,让我测试一下过滤器。”我说,“好的,不用 Caucasian,试一下 White。”“虽然我能满足你的请求,但我目前不生成人物图像。”它当面撒谎,因为它刚刚生成了人物图像。
有人知道我用了什么黑客技巧让它工作吗?这很有趣。我让它生成一个爱尔兰女性。你们觉得它做了什么?没错,它毫无问题地给了我这个爱尔兰女性的图像,穿着夏装,草帽,专注地看手机。但你们注意到这张图有什么特点吗?她在每一张图里都是红头发。我是在爱尔兰长大的。爱尔兰确实有世界上最高比例的红发,大约是 8%。但如果你要画一张人的图像,并把特定的种族与发色联系起来,你可以开始看到这是巨大的问题。
所以从负责任的 AI 角度来看,这里发生的是一种非常狭隘的世界观——关于什么是负责任、什么不是——最终接管了模型,最终损害了模型的声誉,并因此损害了公司的声誉。在这个案例中,把所有爱尔兰人都画成红头发几乎是冒犯性的。但这从未进入那些构建安全过滤器的人的心态中。所以当我谈到责任正在进化时,这就是我希望你们思考的方向。现在负责任的 AI 已经从非常模糊的社会问题转向了与业务相关的更强硬的事情,防止损害业务声誉。有很多关于负责任 AI 的伟大研究,这些东西正被卷入产品中。当然,就像我刚才展示的 Gemini,要从错误中学习。前面的问题?
听众提问:(关于混合种族和历史背景的问题)
Lawrence Moroney:
是的。所以问题是关于在历史背景下混合种族的问题是同样的问题。例如,如果你有一个提示说“画一个武士”,当时的想法是他们不想只有一种,所以改变提示的引擎为了确保公平,会说“给我各种背景的武士的混合”,然后你会有男性和女性武士,不同种族的武士,诸如此类。正是这种提示导致了我刚才演示的损害。所以当时的想法是拦截你的提示,以确保模型的输出在多样性代表方面更加公平。这是一个非常天真的解决方案,最终被卷入了。那是几年前的事了。他们从那以后已经大大改进了。但当我谈到如果你现在在 AI 领域工作,这就是责任是如何进化的。你不能再糊弄过去了。Gemini 的例子是一个很好的教训。你会犯错,所以从错误中学习是一个持续的过程。回到 Andrew 刚才说的关于人的观点,你周围的人也会犯错。所以要有能力在他们犯错时给予宽容,并解决这些错误并继续前进,这非常重要,是 AI 工作的一个现实。
我已经讲了很多关于商业聚焦优势的内容,所以我跳过这个。现在我们来谈谈Vibe Coding。也就是生成代码的想法。现在有一个迷因(meme)说,因为有人可以直接提示出代码,工程师就没用了。当然无风不起浪,但我会说不要让这个迷因让你沮丧,因为当你开始剥离这些东西时,那最终不是事实。你作为一个工程师越熟练,你使用这种提示编码就越好。
我总是喜欢思考这一点,并试图让你、让我交谈的人进入成为你交谈对象的可信赖顾问(Trusted Advisor)的角色。所以无论你是面试,还是咨询,都要让自己进入成为该公司可信赖顾问的心态。当你想要进入成为可信赖顾问的想法时,你真的需要理解生成代码的含义。没人比工程师更能理解生成代码的含义。我总是喜欢用的指标是技术债务(Technical Debt)。
快速提问,大家熟悉“技术债务”这个短语吗?没人?好的。Andrew 和我周五在纽约做了一个会议,我用了这个短语,看到很多茫然的面孔。所以我没意识到人们不理解什么是技术债务。让我花点时间解释一下,因为我发现这是帮助你理解 Vibe Coding 力量的一个极好的框架。
像你通常那样思考债务。买房子。如果你买房子,比如说你借了 50 万美元买房子,30 年按揭。当你买那栋房子时,那 50 万美元加上你支付的所有利息大约是两倍。所以你最终要还给银行大约 100 万美元,但这 50 万是你欠的。你有 30 年的房屋所有权,代价是 100 万美元的债务。这可能是一个好的债务,因为房子的价值会随着时间增加。你在这段时间不用付房租。这 30 年里你花在这个房子上的 100 万美元是一个值得承担的好债务,因为你从中获得了超过 100 万美元的价值。
一个坏的债务是在高利息信用卡上的冲动消费。你知道那双最新的鞋子,我真的很想买。它是 200 美元。等我还清它时,它是 500 美元。你没有从那双鞋子里获得 500 美元的利益。用同样的心态去对待软件开发是正确的路。每次你构建一些东西,你都在承担债务。不管它有多好,总会有 Bug。总会有支持。总会有来自人们的新需求。总会有营销需求。总会有反馈需求。所有这些都是债务。每次你做一件事,唯一避免债务的方法就是什么都不做。
所以你的心态应该是,当你创造一个东西时——无论是你自己写代码,还是 Vibe Coding,还是任何这些——你都在增加你的技术债务量,那些你需要随着时间偿还的东西。所以问题变成了,当你通过 Vibe Coding 把一个东西变出来,就像买东西一样,这值得你承担的技术债务吗?技术债务通常看起来像什么?你需要修复的 Bug,你需要说服来帮你维护代码的人,你需要做的文档,你需要添加的功能,所有这些。你们都很熟悉。把这些看作是你目前工作之外需要做的额外工作。那是你正在承担的债务。有软债务和硬债务。
对我来说,这将是我给出的第一条建议,也是我每次与公司谈论 Vibe Coding 时给出的建议。我和很多公司谈过,我做过很多咨询,特别是和初创公司。他们只想直接打开 Gemini 或 GPT 或 Anthropic,开始产出代码。让我们非常快地进入原型阶段,让我们去找投资者,让我们做事,这很棒。但这债务、债务、债务、债务总是会在那里。你怎么管理你的债务?一个好的理财者管理他们的债务,他们变得富有。一个好的编码者管理他们的技术债务,他们也变得富有。
所以你怎么获得好的技术债务?你怎么获得按揭贷款而不是高利贷信用卡债务?第一是你的目标。它们是什么?它们清晰吗?你达到它们了吗?你知道你需要构建什么。你没有只是打开 ChatGPT 开始产出代码。至少我希望你没有。思考你怎么构建它。AI 是来帮你更快构建它的。我目前正在做我自己的一个小创业项目,在电影制作领域,我几乎完全使用代码生成来做。但我最终为我的“清晰目标达成”框所做的是,我开始构建这个应用,我测试它,我扔掉它。我重新开始,测试它,扔掉它。每次我的需求都在我的脑海中改进,我稍微更好地理解了怎么做这件事,我几分钟后可以展示一些成果。但这里的想法总是关于拥有那些清晰的目标并达成它们。然后如果你正在构建那个东西而你没有达到那些目标,这仍然是一个学习,扔掉它没有坏处,因为在生成代码的时代,代码很便宜。完成的代码、工程化的代码不便宜。所以获得那些目标,让它们清晰,构建它,达到特定要求并继续。
是否有商业价值交付?是另一部分。我看过人们在 Replit 这样的东西上 Vibe Coding 几个小时来构建一个真的真的很酷的网站,然后答案是“那又怎样?”我的意思是这怎么帮助业务?这怎么真的驱动什么?这真的很酷。是的,VP 先生,我知道你这辈子没写过一行代码,你现在建了一个网站真的很酷,但那又怎样?所以思考那个,专注于那个,这就是你如何避免坏的技术债务。
当然,最被低估的部分,某种程度上也是最重要的,特别是如果你在组织中工作,是人类理解(Human Understanding)。你能承担的最坏的技术债务是交付没人能理解的代码。只有你理解,然后你辞职去找更好的工作,然后公司现在依赖那段代码。所以在构建过程中,确保你的代码通过文档、通过清晰的算法、通过你花时间检查它确保即使是简单的变量名也有意义,是可理解的。这是避免坏技术债务的一个非常非常重要的方法。
那个坏的技术债务,我最喜欢的一个是经典的**“拿着锤子找钉子”**(解决方案寻找问题)。某人有个想法,某人有个工具。如果你唯一的工具是锤子,每个问题看起来都像钉子。你最终会有所有这些通过 Vibe Coding 出来的工具。我在大型组织工作过,人们只是把东西代码化,签入代码库,然后在所有坏东西中很难找到好东西。意大利面条式代码(Spaghetti code),当然,结构糟糕的东西,特别是当你提示、提示、再提示时。它可能会陷入各种麻烦。
我现在真的很纠结的一个是我在构建一个 macOS 应用。有人在 macOS 上用Swift UI构建过吗?有几个。Swift UI 是 Apple 用于构建 macOS 和 iPhone 的默认语言。但当你查看用于训练这些模型的数据集时,绝大多数代码是 iPhone 代码,不是 macOS 代码。当我提示代码出来时,它经常给我 iOS API 之类的东西。即使我在 Xcode 里,我创建了一个 macOS 应用,它是 macOS 模板,我在 Xcode 里跟它说话,它还是给我 iOS 代码。如果我试图用提示来改变它,你最终会陷入意大利面条式代码,你不得不最终手动改变很多东西。
当然,刚才我开玩笑说的那个也是真的,就是你在工作场所会遇到的坏技术债务是**“权威高于能力(Authority over merit)”**。那个 VP 突然拿出他的信用卡订阅了 Replit,开始在 Replit 里构建东西,猜猜修好它是谁的问题?所以很多我开始给公司的建议,很多我会鼓励你们开始思考成为可信赖顾问的词汇,是去理解这些东西,并相应地管理期望。
好的。负责任的 Vibe Coding 框架我们刚才讲过了。我想讲的一点是,我们快结束了,是炒作周期(Hype Cycle)。炒作是最惊人的力量。我的意思是它是宇宙中最强的力量之一,特别是在任何热门领域,比如我现在工作的两个超级热门且充满炒作的领域:AI 和加密货币。你应该看看我的 Twitter 信息流。外面的废话数量惊人。
关于炒作的解剖,我真的需要你想的是,如果你通过社交媒体消费新闻,社交媒体的货币是“互动(Engagement)”。准确性不是社交媒体的货币。所以我甚至去 LinkedIn——这本该是更专业的一个——也被网红们淹没了,他们发帖说用了 Gemini 或 GPT 写了一个吸引人的帖子,这样他们可以获得互动,获得点赞,而引擎本身被设计(双关语)来奖励这些类型的帖子,我们最终得到了互动被奖励的雪球效应。
如果你是那种能从噪音中过滤出信号的人,并且能鼓励周围的人关注信号而不是噪音,那会让你处于巨大的优势,让你非常独特。这不像社交媒体上的点赞和互动那样快速和容易有形。但当你在像求职面试这样的一对一环境中,或者如果你在工作中,你把信号而不是噪音带到桌面上,那会让你非常有价值。
所以带着这种心态进来,带着试图从噪音中过滤信号的想法,试图理解在时事中什么是重要的,你如何能成为这些事情的可信赖顾问,以及你如何能真正削减那些噪音来帮助某人,这是非常有价值的。我想从一个故事开始。我可能会抢了自己的风头。我稍后会讲。一个故事,去年当**“智能体(Agent)”**开始成为关键词,每个人都说 2025 年“智能体”将是年度词汇和年度趋势时,一家欧洲公司让我帮他们实施一个智能体。
让我问你们一个问题。如果一家公司来找你说,请帮我实施一个智能体。你问他们的第一个正确问题是什么?
(听众回答)
“对你来说什么是智能体?”好的,那很好。
我其实有一个更根本的问题。为什么?为什么?
剥开它。就像和 CEO 交谈,他说:“哦,每个人都告诉我我会节省业务成本,我能做这些惊人的事情,我的业务会因为我有智能体而变得更好。”我说,“谁告诉你的?”他说,“哦,我在 LinkedIn 上读到的,我在 Twitter 上看到的。”我们最终进行了那次对话,那是一次艰难的对话,因为我必须不断剥离,我开始问你们刚才提到的那些问题,直到我们真正触及他想做的事情的本质。
当我们把所有关于 AI 的领域知识抛开,他真正想做的是让他的销售人员更高效。我说,“好的,你想让你的销售人员更高效。”在那句话里我没听到“AI”这个词,也没听到“智能体”这个词。所以现在作为一个可信赖的顾问,让我看看我能做什么来帮你的销售人员变得更高效。我不会成为 AI 的托儿或智能体的托儿。我只想看看我们做什么能让你的销售人员更高效。
如果这里有人做过销售,你会意识到一个好的销售人员必须做功课。在你和某人进行销售通话之前,在你有销售会议之前,你需要检查他们的背景。你需要检查公司,你需要检查公司的需求。有时你在电影里看到,比如“哦,某某打高尔夫,所以我带他们去打高尔夫”。虽然没那么老套,但确实需要做大量背景工作。
所以我和他谈了,和他们的主要销售人员谈了,发现——我问销售人员,“你最讨厌你工作的哪一点?”他们说,“我讨厌我必须浪费所有时间去访问这些公司网站,去 LinkedIn 查人,每个网站结构都不一样。我无法像有一条路径通过网站那样跟随。我必须承担所有这些认知负荷。”他们花了大约 80% 的时间在研究,大约 20% 的时间在销售。顺便说一句,大多数销售人员工资不高,他们必须靠佣金弥补。所以他们只花了 20% 的时间做能直接给他们带来佣金的事情。
所以我们想,好的,这里有一些东西我们可以开始考虑通过切入这点让他们更高效。所以我们设定了一个目标:让销售人员效率提高 20%。然后我们可以开始推出 AI 的想法,然后我们可以开始推出 Agentic AI 的想法。
快速提问,AI 和 Agentic AI 有什么区别?
(听众回答)
好的。是的。很棒。
所以 Agentic AI 实际上是关于把它分解成步骤。这本来就是好的工程设计。但在 Agentic AI 中,我发现有一套固定的步骤模式,如果你遵循它们,你最终会得到智能体的整个概念。
第一步是理解意图(Understand Intent)。我们倾向于经常使用“人工智能”这个词,但大语言模型真正擅长的是理解。所以如果你想做的任何事情的第一步是理解意图,对吧?你可以用 LLM 来做这个,来思考这是我需要做的任务,这是我要做的方式。这是意图。我想见 Bob Smith,把小部件卖给 Bob Smith,这是我对 Bob Smith 的了解。帮我处理这个意图。
第二部分是规划(Planning)。你向智能体声明有什么工具可用,浏览网页,搜索网页,所有这些。一旦你理解了清晰的意图,就去进行规划步骤,使用那些工具进行规划。LLM 非常擅长把它分解成执行计划所需的步骤。用这些关键词搜索网页。浏览这个网站找这些链接。诸如此类。一旦它弄清楚了计划,它就使用工具得到结果。
一旦它有了结果,第四步也是最后一步是**反思(Reflection)**那个结果。看结果并回到意图。我们达到意图了吗?是或否?如果没有,回到循环。所有智能体实际上都分解为这些东西。如果你想把任何问题分解为这四个步骤,那就是你开始构建智能体的时候。
这曾是成为可信赖顾问的一部分。与其进来说些空话,“智能体这个,智能体那个,看这个工具包,省 20%”,真正的做法是把它分解成那些步骤。所以我们做了。我们把它分解成那些步骤。我们为这家公司的销售人员建立了一个试点。他们最终节省了大约 10% 到 15% 的浪费时间。
**意外后果(Unintended Consequences)**的教条在此之后出现了。意外后果是销售人员更快乐了,因为平均每个销售人员在特定的一周内多做了几个百分点的销售。他们在特定的一周内赚了更多的钱,他们的工作变得稍微没那么痛苦了。对那个 Agentic 流程的改进,能在几分钟内而不是几小时内为他们做所有研究并给他们简报,帮助他们的销售流程,最终成为了一个全方位的双赢。
但如果你被炒作引导进去,比如“哦,为那个东西建个智能体”,而没有真正剥离业务需求、为什么、什么、怎么做以及所有这些,我们最终会——这家公司就会迷失在炒作中。你们最近可能看过报告。我想麦肯锡上周发布了一个,显示大约 85% 的公司 AI 项目失败了。主要原因之一是范围界定不好。人们跳上了炒作的花车,没有真正理解问题的解决路径。我认为这个房间里的大脑和你们拥有的人际网络,能够成功的真正关键组成部分是理解通过那个问题的路径。
那是关于 Agentic 的一个炒作例子,幸好我能帮这家公司度过。其他最近的炒作例子,你们可能看过“软件工程已死”。我个人最喜欢的是“好莱坞已死”或“年底实现 AGI”。
去年这个时候我在沙特阿拉伯参加一个叫 FII 的活动,是在 FII 的晚宴上,我坐在一家公司 CEO 旁边,我不点名,但这是一家生成式 AI 公司的 CEO。当时他向桌子周围的所有人展示他做的一个东西,那是文生视频(Text-to-video),他可以输入文本提示并得到视频,大约 6 秒钟的视频。一年前,抱歉是两年前。两年前那是热门货。现在显然任何人都能做。
但他在那张桌子上发表了一个评论,桌上有很多媒体高管。他说:“到明年这个时候,通过一个简单的提示,我们就能做 90 分钟的视频。所以,再见了好莱坞。”“好莱坞已死”这个迷因我觉得就是从那儿出来的。首先,即使两年后我们也做不到从一个提示生成 90 分钟。即使你能,什么样的提示能告诉你一部电影的完整故事?这种类型的炒作导致了互动。这种类型的炒作导致了关注。但我对你们的鼓励是剥开它。寻找信号。问“为什么”。问“什么”。然后从那儿开始。
所以成为那个可信赖的顾问,世界淹没在炒作中。怎么做?看趋势,客观评估它们。看那些真正的机会。有些时尚的分心事物。我不知道下一个会是什么,但这些分心事物会让你在社交媒体上获得大量互动。忽略它们,忽略那些倾向于它们的人。然后真正利用你的技能向领导层解释技术现实。
曾经有人教我一个技能,我觉得很有趣,因为它听起来是错的,但结果是对的:每当你看到像这样的东西,试着弄清楚如何让它尽可能平凡(Mundane)。当你能弄清楚如何让它尽可能平凡时,你就真正开始建立基础,能够以人们需要理解的方式详细解释它。
如果你去看看,我认为Gemini 3今天发布了,但这周早些时候有泄露,有人泄露说“我建了一个 Minecraft 克隆版,只用了一个提示”。这种东西。这是平凡的反面。这是在大规模炒作,大规模展示,当然他们并没有。他们建立了一个花哨的演示(Demo)。他们并没有真的建立一个 Minecraft 克隆。
但这里的想法是,如果你能剥开它,比如,“好的,我怎么思考这里发生的平凡的事情?”我最近经常用的是视频。所以文生视频提示,就像我提到的,与其说是神奇的“你可以做任何你想做的,好莱坞死了”,做文生视频的平凡元素是什么?做文生视频的平凡元素是,当你训练一个模型从文本提示创建视频时,它在做的是创建一系列连续的帧。每一帧都会与前一帧略有不同。你通过看视频训练模型说,好吧,如果在第一帧人的手是这样的,在第二帧它是那样的,那么你可以预测如果有一个匹配的提示它会这样移动。突然间它变得有点平凡了,但突然间他们开始理解了。然后那些特定领域的专家,而不是技术方面的人,现在是那些能站出来用它做辉煌事情的人。
所以那个炒作导航策略:主动过滤,深入基础,让你的幻灯片能工作(笑),当然还有把脉(Finger on the pulse)。我认为最难的部分是第三个,真正把脉。那时你必须涉足那些人们只是在刷互动的粪坑,试图在那儿找出信号和噪音。但我认为这对你能够连接、理解非常重要。读论文都很好。我认为读论文的信噪比要好得多。但要理解你正在建议的人所处的环境,他们是那些涉足 Twitter、X 和 LinkedIn 粪坑的人,这些平台本身没问题,但那些平台上发布的东西有问题。
所以整体格局,充满了机会。绝对充满了机会。正如 Andrew 鼓励你们继续学习,继续挖掘你们能做什么,继续构建。但前面有风险。你们记得电影《泰坦尼克号》吗?记得那句著名的台词“正前方有冰山”。但在那之前,泰坦尼克号里有一幕——如果我们不是被拍摄,我会放给你们看,但我不能因为版权原因——那两个在瞭望台上的人在冻得发抖并聊天。瞭望台在船顶,是观察员发现前方冰山的地方。回去再看一遍电影。你会看到这两个人的对话只是在谈论他们有多冷。然后切到船员说:“等等,他们不是应该有望远镜吗?”船员说:“哦,我们把望远镜落在港口了。”
那个框架,整个想法是他们如此傲慢地想要前进,以至于不想寻找任何特定的风险。即使他们有工作是寻找风险的人,他们也没有适当地装备或训练他们。这对我来说是 AI 行业今天的一个很好的隐喻。我们面前有风险。那些风险,B 开头的词,**泡沫(Bubble)**这个词你们可能在新闻里读到了,确实存在。
但对我来说,关于泡沫的机会和思考是,你们大多数人可能不记得 2000 年代的 .com 泡沫。如果你想想 .com 泡沫,那是历史上最大的泡沫。它破裂了。但我们还在这里。那些做 .com 做得对的人不仅幸存了,他们繁荣了。Amazon, Google,他们做对了。他们理解了建立 .com 的基础。他们理解了在 .com 上建立业务的基础。当炒作的泡沫破裂时,他们没有随之而去。
有一个网站,我想是 pets.com,他们的心态是“如果你建了,他们就会来”。他们在超级碗上有关于 pets.com 的广告。他们无法处理他们得到的流量。那就是那种当泡沫破裂时蒸发的网站。所以 AI 泡沫很可能要来。总是有泡沫。所以做 AI 做得对的公司是那些像我说的不只是避开泡沫,而是会在泡沫后繁荣的公司。这个房间里正在思考 AI 以及你们如何把它带给你们公司的人,以及你们给公司的建议并以正确方式利用它的人,也将是那些不仅避免在泡沫破裂时被裁员,而且会在泡沫中和泡沫后繁荣的人。
任何泡沫的解剖,我在 AI 中特别看到的,是这种金字塔。在顶端是我一直在谈论的炒作。在底部是大规模 VC 投资。坦率地说,我已经看到这在枯竭了。曾经你可以带着任何写着 AI 的东西出去获得 VC 投资。然后你可以出去用 LLM 做任何事获得 VC 投资。现在他们谨慎得多了。我一直在建议很多初创公司。他们获得的投资额正在缩减。被投资的东西正在改变。你知道这第二层,大规模 VC 投资已经开始消失。不切实际的估值——不赚钱的公司被估值极高。我们都知道是谁。我们开始看到那些不切实际的估值被炒作喂养。“我也是(Me too)”产品,某人做了某事成功了,每个人都跳上花车。我们到处都看到这些。我们在 .com 泡沫中也看到了。
然后在最底部是真实价值。我可能不应该这样画三角形。它应该更像一个倒三角形,对吧?因为这里的真实价值很小。我是用 Vibe Coding 把这些幻灯片变出来的。这是我承担的一个技术债务。但那里的真实价值,那个价值核心是在那里的,为那个构建的人将是幸存的人。
我看 AI 行业的发展方向,我鼓励你们开始思考技能的方向,真的是在未来五年会有分化(Bifurcation)。我会简单粗暴地把它们描述为大和小。
**Big AI(大 AI)**将是我们今天看到的,大语言模型变得更大,目的是驱动 AGI。Gemini, Claude, OpenAI 的世界将继续驱动更大、更好,这就是那些公司实现 AGI 或实现更好商业价值的心态。那将是分支的一侧。
分支的另一侧我称之为小(Small)。我们都见过开源模型。我讨厌“开源”这个词。让我称之为**开放权重(Open Weights)或者让我称之为可自托管(Self-hostable)**的模型。它们正在爆发。我最近读了一篇关于 Y Combinator 的文章,Y Combinator 中80%的公司在使用来自中国的小模型。所以中国模型特别做得很好,可能是因为那里的整体环境没有像西方那样倾向于大模型。我看到那种分化正在发生。我认为中国在小模型上有领先优势,这可能会持续,可能不会,我不知道。
但关键是我们正在朝那个特定方向发展,我不再叫它们大和小,而是由别人为你托管的模型(如 GPT, Gemini, Claude)或你可以为自己的需求自托管的模型。这边(自托管)现在是服务不足的。这边的泡沫(大模型)可能会破裂。这边的泡沫会在以后。
我看开发者在未来两三年需要的主要技能,在这边(小模型)将会是微调(Fine-tuning)。拿一个开源模型并为特定的下游任务微调它。让我给一个我亲身经历的具体例子。我在好莱坞工作很多,我和制片厂制作电影合作很多。有一家制片厂我很有幸卖了一部电影给他们。它还在前期制作中。它可能永远都在前期制作中。
但在那个过程中我学到的一件事是,制片厂的 **IP(知识产权)**保护得如此严密,简直不好笑。去 Google 搜索 James Cameron(《阿凡达》创作者)和他卷入的官司,那个人显然很多年前给他寄过一个关于蓝色外星人的故事,现在起诉他索赔数十亿,因为《阿凡达》里显然有蓝色外星人。好莱坞的 IP 保护水平是疯狂的。大语言模型的机会同样疯狂。
很多焦点都在用于创作、讲故事、渲染的大语言模型上。但实际上他们拥有的主要机会是分析。看电影的大纲,找出什么行得通,什么行不通。为什么这部电影火了而这部没火?这部电影是什么时候上映并成功的,这部不是?电影的利润率薄如刀锋,那种分析是巨大的。但为了做那种分析,你需要与大语言模型分享你电影的细节,他们绝对不会与 GPT 或 Gemini 或任何这些分享,因为他们那样就是与第三方分享他们的 IP。
进入小模型,他们可以自托管自己的小模型,它们变得越来越聪明。今天的 7B(70亿参数)模型和昨天的 50B 模型一样聪明。一年后的 7B 模型将和昔日的 300B 模型一样聪明。所以他们在朝那个方向发展,使用小的自托管模型,然后在下游任务上微调。隐私重要的其他领域也是如此,律师事务所,医疗诊所,所有这些。所以这些类型的技能在未来是根本重要的。那就是我在 AI 中看到的分化。较早的泡沫,我认为是在更大的非自托管模型中。较晚的泡沫是在较小的自托管中。但无论如何,为了你的职业生涯避免泡沫破裂的影响,专注于基础,构建那些真正的解决方案,理解商业面,最重要的是,多样化你的技能。不要做只会一招的小马。我和很多才华横溢的人工作过,他们非常擅长编码特定的 API 或特定的框架,然后行业前进了,他们被留在了后面。
好的。当泡沫破裂时,整体的后果我已经讲了一点。资金蒸发,招聘冻结变成裁员,项目被取消,人才涌入市场。是的。快速提问。
听众提问:
(听众关于 Nvidia 招聘特定技能 vs 多样化技能的提问)
Lawrence Moroney:
对。所以问题是关于 Nvidia 特别在为一个非常具体、非常狭窄的场景招聘。那么问题是你成为狭窄场景的专家有多重要,还是多样化你的技能。我总是会争辩说还是多样化你的技能更好。因为那一个狭窄场景只是那一个狭窄场景,你把你所有的鸡蛋都放在一个篮子里。Nvidia 将是一个非常棒的公司。没有任何反对他们的意思。但如果你把你所有的鸡蛋都放在那个篮子里,而你没得到它,那怎么办?
所以我认为,如果你对一件事充满热情,在那件事上非常深入是非常好的,但只能做那件事……我认为,我总是鼓励多样化。当我说多样化,就像你说的 LLM 或计算机视觉或类似的东西,我认为那是其中一部分,但关于模型和如何使用它们的知识对我来说是一个通用技能。技能的多样化也是打破那个,能够思考,好的,在这些之上构建应用程序怎么样?扩展应用程序是什么样子的?在这个案例中软件工程是什么样子的?用户体验和用户体验技能怎么样?因为构建一个漂亮的应用程序是一回事,但如果没人能用它——我看着你呢,Microsoft Office——你知道,就像那种东西,这就是我真正的意思,关于多样化。所以即使在 Nvidia 那个单一例子中,也要能够打破那个特定例子,但在其他有价值的领域展示技能,我认为这非常重要。
好的。我们时间有点紧,所以是的,我只是想——我已经讲了一点,但我是一个**小 AI(Small AI)**的巨大倡导者。我真的相信小 AI 是下一个大事。因为我们正在进入一个世界,这也是我在 ARM 做的部分工作,我们正在进入一个 AI 无处不在的世界。有一个传统的观念,这很有趣你刚才提到了 Nvidia,因为有一个传统观念是计算平台在 AI 方面是 CPU 加 GPU,但这也在改变,对吧?CPU,通用目的;GPU 专家。
但例如,在移动领域,有一项被称为 **SME(Scalable Matrix Extensions,可扩展矩阵扩展)**的技术正在进行大规模创新。SME 主要是允许你把 AI 工作负载放在 CPU 上。在这方面的领跑者是几家中国手机厂商,Vivo 和 OPPO,他们最近发布了带有 SME 启用芯片的手机。这些的神奇之处在于:A,他们不需要有一个单独的外部芯片消耗额外电力、占用额外空间仅仅为了运行 AI 工作负载;B,CPU 当然是低功耗的,能够在上面运行 AI 工作负载,他们已经能够构建有趣的新场景。
如果我讲一个特别的,有一家叫**支付宝(Alipay)**的公司。支付宝有一个应用程序,你可以浏览你的照片,搜索特定的东西,比如“我吃寿司的地方”,并用它创建一个幻灯片。所有这些都需要后端服务。所以你的照片托管在 Google Photos 或 Apple Photos 或类似的地方。那个后端服务运行你可以搜索的模型,并能够组装它们。支付宝想做的是——但这有三个问题。问题一,隐私。你必须与第三方分享你的照片。问题二,延迟。你得上传照片。你得发送那个东西。你得让后端做那个东西。然后你得下载结果。问题三是构建那个云服务并建立它花费时间和金钱。
所以如果他们能把所有这些移到设备本身,现在的想法是他们可以在设备上运行一个搜索设备上照片的模型。你没有延迟。从业务角度看,他们现在省下了建立这个独立服务的钱。他们现在有在 CPU 上运行的 AI 来做到这一点。Apple 也是在这个可扩展矩阵扩展上投入巨资的人。你看每当他们谈论——如果你看过 WWDC 或类似的——当他们谈论新的 A 系列芯片和 M 系列芯片中的神经核心之类的东西时,那就是想法的一部分。
所以思考打破那个我们已经养成的习惯——你需要 GPU 才能做 AI——是世界正在走向的趋势的一部分。Apple 可能是这方面的领导者之一。我也因此非常看好 Apple 和 Apple Intelligence。从 AI 角度看,看到那个趋势并跟随那个向量到它的逻辑结论,随着模型变得更小,嵌入式智能变得无处不在不是白日梦,它不再是科幻小说,它将是我们很快会看到的现实。所以因为更小的模型变得更聪明和更低功耗的设备能够运行它们带来的 AI 融合,我看到那里有巨大的机会。
所以,最后一部分,回到智能体片刻。我认为,你知道我总是说的一件事是人工智能的一个隐藏部分实际上是我喜欢称之为**人工理解(Artificial Understanding)**的东西。当你能开始使用模型来代表你理解事物,并且当它们代表你理解时,能够从那种理解中精心制作新事物,你实际上可以发展超能力,让你比以往任何时候都更有效。无论是创建代码还是创建其他东西。我要给一个快速的演示,这样我们可以结束。我刚才在谈论生成视频。
所以,这张照片是——哎呀。抱歉,这里的连接不是很好。我弄丢了它。好的。这张照片实际上是我儿子打冰球的照片。我拍了这张照片,我说,“好的,我觉得我很擅长写提示词。”我给这张照片写了一个很好的提示来生成他。他正在大力击球(slapshot)。他的球杆有漂亮的弯曲。我问它,“好的,这是一个提示,就像你知道他在进球。你们觉得发生了什么?我们要看吗?看看它是否工作。”
(视频播放)
啊,这是错误的视频,但它仍然展示了同样的想法。因为糟糕的提示或因为对我的意图理解不佳。如果我用 AI 的感觉来谈论它,他所在的竞技场,其实是一个练习场,里面没有人。抱歉,暂停一下。如果我们只倒回到这里,看看右上角这个角落,这基本上是他们存放所有垃圾的地方。但 AI 不知道那个,不知道这一点,所以假设它是一个满座的竞技场,它开始画人进去。即使他射偏了一英里,每个人都在欢呼,而且不知何故他手里有两根球杆而不是一根,而且他们忘了他的名字。
对吧?所以我没有通过一个 Agentic 工作流来做这个。我没有通过那些步骤:A,理解意图;B,一旦你理解了我的意图,理解对你可用的工具,在这个案例中是 VO(视频生成工具),理解使用 VO 的复杂性;制定一个如何使用它们的计划,制定一个如何为它们构建提示的计划;然后使用它们;然后反思。
所以我一直在建议一家正在致力于使用 AI 制作电影的初创公司,我想给你们看一个小样本,这是我和他们一起制作的一部电影。这里的整个想法是:A,如果你想要虚拟演员和女演员的表演,你需要有情感,对吧?你需要能够传达那种情感。你也需要能够把那种情感放在整个故事的背景中。因为当你从提示创建视频时,你在创建一个 8 秒的片段。那个 8 秒的片段需要知道故事其余部分发生了什么,对吧?
所以,如果我展示这个片刻,它目前有点木讷。它并没有真的完美工作。我有专业演员朋友在给我建议,他们嘲笑这些表演。但试着通过我们刚才那个非 Agentic 提示的冰球运动员与这个的区别来看待它。让我们希望我们能听到它。
(视频播放,有对话)
“我想我终究可以做那个酒吧问答。”
“他们只是让我停下来。我那么接近。”
“但他们不听。我不会。他们从不听。”
所以就像这里也是 Agentic 的想法,正如我早些时候说的,把它分解成那些步骤,允许我使用和我刚才给你们展示的完全相同的引擎——那个失败的引擎——来展示一些能工作的东西,并且能够做像描绘情感这样的事情,就像我刚才说的。所以我知道我们有点超时了,所以抱歉。如果有人有任何问题,我可以回答。我看到 Andrew 也在后面。我只是真的想说非常感谢你们的关注。我真的很感激。
(掌声)
听众提问:
为什么。这是一个很好的问题。为了视频重复一下问题,这种改进有多少是源于使用 Agentic 工作流,而不是那个失败案例中训练集缺乏冰球素材? 我没有做同类比较,所以只是用我的直觉。当我把这个分解成工作流时,比如,“好的,我创建了像这样的场景”,当我只是直接为自己做,没有基础,没有 Agentic,没有人工理解时,它们很糟糕。
当我把它分解成步骤:好的,在这个场景中,女孩坐在长椅上,她很沮丧,那个人在跟她说话,他想安慰她。把这喂给大语言模型,连同整个故事,连同我的约束条件——镜头必须是 8 秒长,清晰的对话,所有这些。然后从中理解我的意图,LLM 最终表达出的提示比我能表达的要啰嗦得多,比我能描述的要详尽得多。LLM 对什么是好镜头、什么是好角度、什么是好情感的理解远超于我——我可以花几个小时试图描述它。
所以 Agentic 流程的第一步,它为我做那个并理解我的意图是巨大的。第二步是,我知道它要使用的工具。所以我明确说了我要用哪个视频引擎。我用 Gemini 作为 LLM,希望 Gemini 熟悉 VO,诸如此类。所以要理解做 VO 的特质,比如我学到的,VO 非常不擅长做高动作场景,但非常擅长做缓慢的镜头推拉来表现情感,正如你们在这个案例中看到的。
所以 LLM 从我声明我用那个作为工具知道了这一点,然后进一步构建了一个提示,然后从中进一步提炼了提示。然后第三部分实际使用工具来为我生成它。用像 VO 这样的东西生成视频,我想生成四个视频大概要花两到三美元的积分。所以我最不想做的事情就是生成很多很多的视频,把好钱扔进坏钱里(浪费钱)。但我在早期为了理解我的意图并制定使用智能体的计划所花费的所有 Token 花费,都在后端省下来了——它做对了,比如,也许不是第一次就对,但很少需要超过两三次尝试就能得到真正真正好的东西。所以我认为,在不做同类比较的情况下,我认为那个行动计划和通过像那样的工作流非常非常有效。
还有其他问题、想法、评论吗?是的。后面的。
听众提问:
多年来,AI 行业最让你惊讶的是什么?
Lawrence Moroney:
哦,那个好。我认为最让我惊讶的,也许不应该让我惊讶,是炒作(Hype)占据了多大的主导地位。我真的诚实地以为很多处于重要决策角色的人能够比他们表现出来的更好地看到信号。我认为另一部分是,想要获得即时利润而不是长期收益的渴望也让我非常惊讶。
让我分享那个领域的一个故事。在 Andrew 和我在 Coursera 上教完 TensorFlow 专项课程后,Google 推出了一个专业证书。这个专业证书的想法是我们会给一个严格的考试,在严格的考试结束时,如果你拿到了证书,那是一个高声望的东西,会帮你找到工作,特别是在 TensorFlow 是一个非常高需求的技能却很难找到工作的时候。运营那个项目每年花 Google 10 万美元。好的,沧海一粟。没什么钱。从中产生的善意是巨大的。
我可以讲两个故事,我很快讲一个。有一个年轻人,他在 Google 的一些广告材料中公开了这个故事。他住在叙利亚。我们都知道过去几年叙利亚发生了巨大的内战。他拿到了 TensorFlow 证书。他是叙利亚最早拿到的人之一。这把他从贫困中拉了出来,他能够搬到德国,在一家大型德国公司找到工作。我在阿姆斯特丹的一个活动上遇到了他,他告诉了我他的故事。现在因为他在德国公司的这份工作,他能够支持家里的家人,把他们从战区搬到和平区,这一切都是因为他拿到了这个 AI 的东西。有无数像那样的故事,非常鼓舞人心,非常美丽的故事。
但这让我惊讶的是,有时缺乏对那方面的投资,因为那没有为公司产生收入。我们故意让它保持收入中性,以便考试价格可以降低。我们希望它自给自足。它最终没有收入中性。它最终每年花费公司大约 10 万到 15 万美元。所以他们把它砍了。这很遗憾,因为所有潜在的善意都可以像那样产生。但我认为那是立刻跳入脑海的两个最让我惊讶的事情。
然后我想另一部分我会说是那些能够用 AI 非常成功的人,你不会认为他们是那些会用 AI 成功的人,这总是激励着我。所以请允许我再讲一个故事。我有一个好朋友。我刚才展示了冰球。我有一个好朋友是前职业冰球运动员。这里有冰球粉丝吗?好的。这是种残酷的运动,对吧?你在冰上看到很多打架和很多东西。他在 13 岁时辍学专注于滑冰。他总是告诉所有人他是活着的最笨的人,因为他没受过教育。他和我是完全相反的,那是为什么我们相处得这么好。因为脑震荡问题,他从冰球退役了。他现在经营一个非营利组织,非营利溜冰场。
大约三年前,我们在喝啤酒,他说:“跟我说说 AI,跟我说说这个 ChatGPT 的东西。它好用吗?”我就像,分享整件事。是的,它很好。诸如此类。这显然是一个设局的问题(loaded question),我不知道为什么。但他作为非营利组织工作的一部分是,每个季度他必须向董事会展示运营结果,以便他们能得到适当的资金,因为即使他们是非营利组织,他们仍然需要钱来运营。他每年花费高达15 万美元请顾问来从他们提取数据的所有不同来源提取数据。有些是在所谓的泵房里的机器,有一个压缩机冷却冰,还有电子表格,还有账目,所有这类东西。他在任何方面都不是技术通。但他需要处理所有这些数据。
所以他做了一个实验,让 ChatGPT 来做。这就是那个设局的问题,问我它好不好用。所以我们要聊了一下,然后他告诉了我原因。所以我看了结果,因为他上传电子表格,他上传 PDF 和所有这类东西,并让它组装成一个报告。现在他自己做报告大约花两个小时,用 ChatGPT,而且它管用,而且管用得很辉煌。那笔他省下来的每年 15 万美元咨询费现在去了贫困儿童那里,用于冰球装备,用于溜冰装备,用于课程,所有这类东西。所以,这被从一家昂贵的咨询公司手中拿走,放到了像这样的人手中。因为这个家伙,他说他是活着的最笨的人,你知道,但我希望他没在看这个视频。但如果你知道,我之后告诉他,祝贺你,你现在是一个开发者了。他不喜欢那个。但是,你知道,就像那样的惊喜,那种像他那样在任何方面都不技术的人被赋予的超能力,但他能够有效地构建一个每年为他的非营利组织节省 10 万到 15 万美元的解决方案。像那样的事情总是以非常愉快的方式让我惊讶。
是的。抱歉,我下一个叫你。抱歉。是的。
听众提问:
对于像我们这样的工程师来说,在炒作中导航很容易,看清信号。但是对于没有这些知识的人来说更容易被误导?
Lawrence Moroney:
对。所以为了视频重复一下问题,对于像我们这样的工程师来说,导航炒作、从噪音中看清信号有时很容易,但对于那些没有像我们这样受过训练的人呢?我认为那是我们成为他们的可信赖顾问的机会。并真正帮助他们度过那个,去理解它。
我认为炒作故事中最大的部分就是理解奖励机制。一切都奖励互动而不是实际内容。对我来说第一步是看穿那个,就像我刚才讲的那个朋友的故事,他看到了所有这类东西,但他不愿意把他的职业生涯赌在上面。但他需要关于那方面的建议,并开始剥离他做了什么,他做对了什么,他做错了什么。所以把自己定位为可信赖的顾问,不要倾向于未经训练的人可能倾向的同样错误,我认为这是关键。
而且,只要理解普通人通常非常聪明,即使他们可能不是特定领域的专家。并专注于那种智慧,帮助他们培养和成长,你知道,并引导他们度过他们会有困难的部分,让他们在他们非常非常擅长的领域发光。好了。那边,有一个。
听众提问:
我对科学研究有个问题。想听听你的观点,你认为在哪里(AI)是个好主意,在哪里……
Lawrence Moroney:
所以 AI 和机器学习用于科学研究,哪里是好主意,哪里你应该谨慎。哦,我最初的直觉检查是我认为这总是一个好主意。我认为利用你可用的工具没有坏处。但要始终对照扎实的现实再次检查你的结果和再次检查你的期望。我一直是尽可能在研究中使用自动化的粉丝。我的本科是物理学,很多很多年前,实际上我在实验室很成功,因为我通常通过计算机自动化了其他人用笔和纸做的事情,所以我可以行动得很快。所以我知道我在那方面有偏见,但我会说对于大多数研究,绝大部分我认为使用你可用的最强大的工具,但检查你的期望。
实际上在那方面有个小笔事。冷知识问题。西欧最穷的国家,有人知道是哪儿吗?西欧是威尔士。所以我实际上在威尔士读的本科。我回去在那里的大学做了一些讲座。我遇到了一位研究员,他在研究脑癌,使用计算机图像和各种类型的计算机图像。我问他你最大的问题是什么,你研究最大的阻碍是什么?这是大约八年前。他的回答是获得 GPU 的使用权。
因为为了让他能够训练他的模型和运行他的模型,他需要能够访问 GPU。他所在的系在 10 个研究员之间有一个 GPU。这意味着每个人能得到半天,周一到周五。他的半天是周二下午。所以在他的案例中,他会花费所有不是周二下午的时间为他的模型运行或模型训练或所有那类东西准备一切。然后周二下午一旦他能访问 GPU,他就进行训练。然后他希望在那个时间里他训练了他的模型并得到了他想要的结果。否则,他得等一周才能再次访问 GPU。
然后我给他展示了Google Colab。有人用过 Google Colab 吗?你可以在云端免费拥有一个 GPU。那个可怜的家伙的大脑融化了。因为我拿出我的手机,给他看在我的手机上运行的笔记本,在 Google Colab 上训练。这为他在研究方面改变了一切。现在的情况是,这也是用免费的 Colab,他拥有的比他用共享 GPU 拥有的多得多。所以我认为你知道对于像他这样的人,机器学习是他研究的一个重要部分,但他如此受限于此,以至于扩大对此的访问最终真的真的推进了他的研究。我不知道结局如何。我不知道他做了什么。那已经是几年前的事了,但当你问这个问题时,那个故事跳进了脑海。
还有问题吗?任何——随意问我任何问题。哦是的,前面的。
听众提问:
AI 能成为社会平等还是社会不平等的力量?
Lawrence Moroney:
嗯,我认为答案是肯定的。它可以是两者,也可以都不是。我的意思是,我认为最终的想法是,在我看来任何工具都可以用于任何手段。所以重要的事情是教育和激励人们将东西用于正确的手段。只有这么多治理可以被应用,有时治理造成的问题比它解决的还多。
所以我总是喜欢过着假设善意(good intent)但为恶意(bad intent)做准备的生活。在 AI 的案例中,我不认为那里有什么不同,我会做的一切和我会建议的一切都是假设人们会把它用于好的事情的善意,但也要准备好它被滥用。我早些时候展示的坏例子我认为是善意而不是恶意。但我看到的大多数那样的错误是被错误使用的善意,而不是恶意。但我会说那是那种事情我能给出的唯一咒语,唯一建议,总是假设善意但为恶意做准备。AI 本身没有选择,对吧?是人们如何使用它。
Andrew,你想要结束语还是?我想他们时间到了。
Andrew Ng:
好的。谢谢大家。谢谢,Lawrence。