中国AI产业的机遇:5大方向与3个预测
2025-05-18 15:25:38 · chineseheadlinenews.com · 来源: AI科普馆
#1
ChatGPT 是人类第一个通过图灵测试的智能体
1981年8月12日,IBM公司推出了全球第一台采用开放性架构的个人计算机PC 5150。1982年12月,这款计算机登上了《时代》周刊的封面,并被评选为“年度人物”。大约40年后,2022年11月30日,OpenAI发布了有史以来用户增长最快的消费级AI应用程序ChatGPT。2023年2月,ChatGPT也以“年度风云人物”的身份登上了《时代》周刊的封面。这让我感觉,在AI的发展历程中,一座新的丰碑出现了。
作为AI大模型强大能力的一种载体,ChatGPT可以说是将复杂技术简化为无门槛产品,进而为大众所广泛接受的标杆之作。
大模型的研发与迭代已有好几年,2020年GPT-3的诞生首度引发了全球级的破圈关注。尽管该模型被更多地提供给专业人士使用,但科技界内外确实也因这款明星产品而备受震撼。
2022年的岁末时分,ChatGPT一出场,就已经是一款能力较GPT-3更全面与强大的AI应用。ChatGPT在GPT-3.5的基础上经过了特别的优化与微调,更适合与人类进行自然语言对话。
ChatGPT一经推出,我就注册了账号,简单体验了一番。我的第一感觉是这个机器人做得太好了,虽然也会屡屡出现幻觉(Hallucination)等问题,但很明显,ChatGPT的语言能力极其出色。今天,这款AI应用的背后已是GPT-4o、OpenAI,与最初的版本相比,又有了明显的进步。
事实上,从GPT-3到GPT-3.5,中间经历了约两年的“漫长”时间,算法本身自然有很多改进。例如,InstructGPT(人工智能语言模型)和利用人类反馈来强化学习,都在很大程度上让AI得以更好地判断用户意图,进而给出更准确的答案。
但对我来说,ChatGPT带来的更大震撼是,它竟如此受欢迎——它在诞生两个月后,就成为历史上最快突破1亿用户的科技应用,简直像是科技界的泰勒·斯威夫特。在ChatGPT面世前的两年,生成式AI可谓进展最快的技术,比如在AI做图的赛道,就有DALL-E(美国图像生成系统)、MidJourney、Stable Diffusion(两者均为AI绘画工具)等“种子选手”在你追我赶。AIR团队也在研究生成式AI技术,例如,自动驾驶的仿真模拟就需要用到这一技术。总体来说,这个领域发展迅速,但似乎还谈不上技术质变与体验跃升。
然而,ChatGPT确实是一次质变与跃升,是AI概念诞生至今六十余年的一座里程碑。事实上,若是以麻省理工学院(MIT)的计算机科学家约瑟夫·维森鲍姆于1966年开发的聊天机器人程序Eliza(伊丽莎)为开端,计算机科学家对于人机对话的探索已进行半个多世纪。总体而言,进步很大,但一直未能出现实质性的飞跃。在ChatGPT发布前,聊天机器人主要应用于聊天、客服等垂直领域,整体感觉更像是简单的工具或无聊时的玩具,常常答非所问,被用户戏称为“人工智障”,这类聊天机器人前辈想要通过图灵测试,显然难如登天。ChatGPT则是第一个可以通过图灵测试的智能体,我在它的身上看到了通用人工智能的雏形。
2016年,AlphaGo在围棋领域表现出的统治力首次将AI的可怕潜能展示于世人面前。当时,无论是人脸识别技术还是语音识别与合成技术都已相当成熟,但能够将AI的诸多能力整合到一个应用、一个界面的明星产品匝檀出现,因此许多人对AI的印象依然比较刻板,觉得AI能做的事情不多。自动驾驶给人的感觉非常酷,但它是牵一发而动全身的火种般的项目,因而其实用化推进始终比较慢,直到今天也未变成为亿万国民所普遍认可的主流新业态。对于那时就已经开始集成AI成果的应用率较高的搜索,用户的体会也并不深刻。
总之,在2016年那个时间节点,大多数普通人感受不到AI给生活带来了什么改变。直到6年后,ChatGPT横空出世,尝鲜者惊喜地发现,可以直接与AI展开有价值的对话了。屏幕对面回应你问题的那个家伙就像一个万事通,什么都知道。通常情况下,它不会像那些自诩智能的前辈那样,给出与提问意图南辕北辙的回答,更不会自作聪明地绕开问题、生硬地将话题转向不相干的方向……虽然ChatGPT偶尔也会发神经、说胡话,有时还说废话和囫囵话,但人不也会这样吗?而且,它在很多方面做得比普通人要好,比如,能写出顺畅的文案,语法挑不出毛病,还能帮助用户写程序、规划任务,等等。其表现足以证明,在认知层面,AI的性能实现了空前的提升,甚至让人看到了通用人工智能的影子。
全世界的计算机科研工作者都在探索,哪条技术路线通往真正的通用人工智能。GPT-3的诞生,让不少人意识到,大数据和超大模型可能是一个正确的方向;而后继者ChatGPT和GPT-4的不俗表现,让大家对这条路线的信心更加坚定。规模效应极其重要,特别是上下文学习/情境学习(In-context Learning)等学习方式,使模型能够越来越快地适应新的任务。当用于训练AI的数据规模不大时,效果还不明显;但规模达到一定程度后,就可能产生一些超出设计者预期的现象或能力,涌现得以发生——就像一堆沙子里突然有一座沙堡拔地而起。
#2
ChatGPT时代的行业结构与成长机遇
以GPT系列为代表的大模型正在重塑IT行业的结构。
如下图所示,新结构的底层仍旧是云,可能配备了数以万计的GPU或XPU(极限处理器),它们构成了算力基石。往上一层是经典的IaaS层(Infrastructure as a Service,基础设施即服务,包括了计算、存储、网络、数据、安全等)。再往上是基础模型层(Foundational Model),又称MaaS层(Model as a Service,模型即服务)。在此之上有许多VFM(Vertical Foundational Model,垂直基础模型),比如,用于自动驾驶、蛋白质解析、智能教育、具身智能的,难以计数。而且,这些垂直基础模型并非相互孤立、彼此隔绝,而是可以相互结合、形成对用户价值更高的应用——SaaS(Software as a Service,软件即服务)。
在这样的结构下,对于AI大模型时代的竞争者而言,似乎每一层都意味着崛起的机遇。理论上当然是这样,然而对那些资源不充分和实力不够强的企业来说,无论是在算力层、基础设施层还是在基础模型层,获得成功的概率都不太高——因为有门槛,并且难跨越。事实上,大多数创新风口应该会出现在垂直基础模型层及其上的SaaS层。
不仅如此,要想在部署端(智能手机、PC、物联设备、智能汽车和机器人等)加入AI的能力,就需要为边缘定制模型,在这方面有很多工作待完成。况且,具体到部署端,模型并不是越大越好,而是越小越快越好。比如,当我们把大模型的能力迁移到无人驾驶的汽车里,首先要解决的问题是可靠与精确——让AI能够在最短的时间内对交通状况做出最佳的判断,延时越短,效果就越好,而不是赋予驾车的AI以写诗作曲、生成影像的功能。
我的判断是,在大模型时代,边缘的机会非常大,也非常多。所以,我们有不少正在推进中的边缘计算、边缘模型、模型交互、联邦学习与小模型的项目。
一些国外公司正在瞄准AI操作系统的机遇发力攻关,百度、阿里巴巴、腾讯、字节跳动、华为等有底蕴、有远见的本土巨擘也在此领域布局。哪怕是初创公司,倘若能够获得百亿级的投资,也可以尝试探索一番,OpenAI就是这么成长起来的。但我觉得,有想法的企业还是应该量力而行,不应该看到风口便往上扑,一窝蜂似的去做操作系统层。就像在移动互联网时代,iOS和Android固然发展得很好,但显然应用层催生了更多的超级玩家,如今日头条和TikTok、微信和淘宝。大模型时代也是如此。
在大模型时代,操作系统一家独大的可能性不大。因AI而生的App可以接入不同的系统,结合不同的基础大模型。所以,与其临渊羡鱼,不如多观察、多思考模型和模型之间的互动,以及怎样更好地跨模型工作,怎样在模型里收集知识,进而将其转化为自身的产品优势。
一个积极的变化是,以往开发任何应用都需要大规模的数据,现在依托预训练模型,数据的调用已不成问题,因而每个企业只需要结合自己的专有数据做精调训练(Fine Tuning)和提示工程(Prompt Engineering),就能以比过去更少的投入获得更好的反馈与更高的回报。
总之,新时代的信息技术从业者可能会发现,有更多有趣的工作等着自己去完成。一切的改变始于ChatGPT。它的成功加速了整个行业生态的转变,带来了新范式的启示。其影响才刚刚开始。
#3
后ChatGPT时代,中国人工智能产业的机遇
像GPT系列这样的大模型技术将持续向前演进,与其技术原理相近的平台、系统预计也将不断出现。在经历了投资者评估与市场考验之后,大浪淘沙,余下少数几家由幸存者升格为统治者。由于地域的区别、政策的限定,中国也会有自己的大模型及杀手级应用,它们会逐步成长为新的操作系统。这样的演变与云计算从萌芽到壮大的过程如出一辙。
经常使用ChatGPT的国内用户会发现,它的中文交互表现相当出色,这一点十分有趣。Transformer模型起初被设计用来解决序列到序列的任务,如机器翻译,训练它的时候就使用了各种不同的语言。其后,Transformer模型在语言映射之间找到了结构,学会了语法和语义。这说明,用于训练模型的语言语种越多,其效果可能就越好。因此,做中文大模型时,最好别让训练原料局限于中文,加入更多的语种很有必要。
据2023年6月国际数据公司(IDC)发布的报告,全球每一年产生的数据量大约是上一年的1.26倍,增长速度超出了摩尔定律。其中大部分数据可能由非中文语种产生,但我认为,这对于训练中文大模型来说,现在乃至以后都不算是限制。原因有两个方面:一是我们可以用英文及其他语种的数据来训练中文大模型;二是用于训练大模型的数据远不止文本,还包括视频、语音等多模态数据。不久,不只是源自信息世界的数据,物理世界(自动驾驶车辆、机器人、边缘设备、各种工业设施等),生物世界(基因组学、细胞组学、人类的大脑器官等)的各种数据都可以转变为Token(词元),供AI持续学习。甚至某天,研究人员将各种气息、味道、触感进行数据化后喂给AI,强化其能力。
想象一个线下社交场合,人和人之间交换信息的方式固然以对话为主,但视、听、嗅、味、触五感产生的信息量或许更大。另外,现在绝大部分被纳入统计的数据是由人类和各种机器、传感器产生的数据,这些只是浮在海面上的冰山一角,物理世界中还有更多数据暂时处于海面以下。比如,每位驾驶员、每辆车每天产生的数据都是TB级别的,生物世界的数据量级只会更高。也就是说,数据量绝不会成为训练中文大模型的瓶颈。
比获取数据更重要的是怎样用好数据。ChatGPT的表现如此优异,有一个重要原因是研发团队对边际工作给予了高度重视,如数据清洗、半监督学习等。团队不仅在技术层面及时调试、优化,还雇用了很多人对数据做各种标注,再加上纳入了人类反馈的强化学习——相当于我们与ChatGPT的每轮对话都能让它变得更聪明。所以,除了保障用于模型训练的算力、数据和算法,边际环节也很重要。
今天,在围绕AI展开的新一轮科技长跑的进程中,中国科技界与“世界顶尖”之间的差距可能更多地体现在高端计算芯片、算法系统和一些大的平台级技术方面。但我觉得,国内的科研人员、创业者和工程师,一旦集中资源、保持耐心、认真做事,就有机会追赶上别人。
值得注意的还包括,在生成式AI刚刚在产业内外引发极大关注的阶段,美国很快便出现了针对大众用户的实用化产品,如DALL-E、Midjourney、Cursor、Pika、Suno AI等垂直类应用,这些应用从上线到获客、实现营收的路径都很短。
中国目前有很多聚焦生成式AI机遇的新创公司,而且风险投资行业、高科技企业也在紧密关注着新的风向。这一领域的大多数创新遵循两种模式,一是做横向的基础模型,二是做行业的垂直模型。到目前为止,更多的机会应该是在垂直领域,如边缘智能体、医疗等。对此,我的想法是,无论今后有多少机构和个人能够在这轮创新风暴中把握成长契机,进而成为新时代的弄潮儿,当下对生成式AI的探索一定会让每个人都倍感兴奋——毕竟,未知之门就在前方,每一天都是崭新的。
最后,有了ChatGPT的灯塔效应,国内许多公司纷纷投身于生成式AI的角逐就不足为奇了。“百模大战”早已开启,仅就我所知,便有几十家公司在做大模型。这谈不上是好还是坏,我认为,不管是行业巨擘还是初创企业,只要能够充分地、公平地竞争,便可创造出活力十足的市场。同时,能够坦然投身于竞争的公司才是好的公司。
大模型时代刚刚揭幕。42千米的马拉松比赛,而今可能才跑到5千米路标处。中国在PC互联时代落后于世界,在移动互联时代实现了特定领域(数字支付、短视频等)领先于世界。到了AI互联时代,我们理应给予创业者、科研人员乃至企业更多的信心、更多的时间,毕竟,这场博弈恐怕将旷日持久。
#4
必须高度重视人工智能风险
每当信息技术有所进展,针对其风险的讨论便会如影随形。这是很自然的事——任何强大的技术若不为其制定“规则”和“限制”,而是不加约束地使用,那便极有可能造成灾难性的后果。
早期的AI并没有那么智能,同时应用空间也较为狭窄,因此很多人不太相信AI会有多大的能力与潜力。现在看来,科幻成真——文学作品与影视节目中的各种设想与演绎离我们越来越近,正一步步成为现实。正如我在前文中指出的,AI大模型的强大功能及其蕴含的无限可能已称得上毫无争议。随着前沿大模型一飞冲天且快速迭代,与之相伴的潜在风险也在不断累积。这些风险包括但不限于以下几个方面。
? 深度伪造:利用深度学习技术生成高度逼真、实为伪造的图文及音视频内容。
? 幻觉问题(Hallucination):AI生成了看似真实但实际不准确甚至是捏造的信息,给用户带来不必要的困惑,还可能造成更严重的后果。
? 有毒信息(Toxic Information):AI生成或传播了仇恨言论、有误导或曲解嫌疑的事件解读、虚假新闻、骚扰内容等有害信息。
? 递归式AI发展:AI系统在自我改进与进化的过程中,可能出现令研发人员始料未及的糟糕结果。
? 失控和误用AI代理:在没有适当监督的情况下,AI代理或许会擅自实施有害或不道德的行为。
? 具身AI和生物AI:这些技术可能带来新的伦理和安全问题,甚至在物理世界掀起一场场危机。
? 大规模的系统风险:任何系统在被大规模应用后,都可能遭遇各种危及系统及其使用者的风险,如系统崩溃、受到网络攻击等。
? 通用人工智能技术对就业市场和社会收入不平等的影响:通用人工智能可能导致人类的某些工作岗位被机器取代,进而令社会收入不平等的现象加剧。
考虑到AI科技广阔的应用空间与迅猛的渗透速度,从现在开始,我们就应该像对待核武器那样高度重视AI风险。援引深度学习之父、2024年诺贝尔物理学奖得主杰弗里·辛顿曾经说的话:“目前为止,我还想象不到更智能的事物为一些没它们智能的事物所控制的例子。打个比方,假设青蛙创造了人类,那么你认为现在谁会占据主动权,是人还是青蛙?”
《人类简史三部曲》的作者、以色列历史学家尤瓦尔·赫拉利发表过类似的观点。他曾将AI比作异类智能/外星智能(Alien Intelligence),因为AI做决策的方式与人类思维有着根本的不同。
我的看法是,就科技探索而言,人类拥有两种智慧——发明创造技术与控制技术走向,两者必须均衡前行。目前来看,在AI技术方面,“控制技术走向”稍稍落后。作为研发者,我们一定要更快地解决AI与人类价值观对齐的问题,也就是要确保AI系统的目标、决策过程和行为完全符合人类的价值观与利益。
第一,研发人员要将一部分资源和精力投放在“对齐”的课题上,先要让机器理解、接受、遵循人的价值观。这不仅是跨学科、跨领域的伦理问题,还有实现路径中可能存在的悖论。一方面,如果AI的智慧程度足以理解、接受并遵循人类的价值观,这就意味着它在智商和情商等方面已经达到或超越人类的平均水平。这种AI不仅能够处理复杂的任务,还能理解和内化人类的伦理与道德标准。另一方面,一旦AI具备了这样的能力,它可能会发展出自己的价值观和行为规则。高智能系统具有自我学习和自我改进的能力,可能会在不断的学习和进化过程中形成独立且独特的思维模式与价值体系。
在这样的情况下,如何确保AI始终都能尊重人类的价值观而不产生自己独立的价值观,就成为一个巨大的挑战。即使我们在初始阶段对AI进行了严格的对齐训练,随着时间的推移和AI的自我进化,这种对齐有可能会逐渐失效。也许未来会有更好的解决方案,但仅从当下来看,我们所能做的是让“对齐”相关的研究贯穿整个AI进化的过程。对此,身处AI研发前沿领域的人士负有重大责任,绝不能只注重挖掘AI的能力,而不着力于推进对齐任务。好在“火箭安全工程”已成为火箭科学与工程学科的一个重要分支,当前也诞生了新学科“AI安全研究”,不少前沿科学家在积极倡导、密切关注AI对齐课题。
第二,要制定和持续优化与AI监管相关的一些基本原则。1942年,在小说《环舞》(该作品于1950年被收入短篇小说集《我,机器人》)中,美国科幻小说家艾萨克·阿西莫夫设想并定义了机器人的行为定律,即著名的“机器人学三定律”。1985年,阿西莫夫又借另一部小说增补了“第零定律”,将约束机器人的指令由3条扩展为4条。虽然在现实中,这些法则很难被简单解译并沿用于AI和机器人的行为规范中,但其理念和思路确实在某种程度上启发了相关领域的科研人员,至少能提供有益的借鉴。
2017年年初,在美国加州阿西洛马召开的“有益的人工智能”(Beneficial AI)会议上,由未来生命研究所牵头,全球多位AI和众多领域的专家联合签署了《阿西洛马人工智能23条原则》,旨在确保AI技术的发展始终对人类社会产生积极的影响。我的看法是,这些原则对人与AI的权责进行了更细致的界定,明确了以人为主、以机器为辅的关系。23条原则被认为是阿西莫夫机器人法则的扩展和深化。也就是说,无论是机器人、AI系统还是自动驾驶汽车、智能应用,其权限与责任都不应超越人类。同时,掌握着最终决策权的个人、公司或组织,理应承担更大的责任。有鉴于此,未来即便AI和机器人的能力迅速膨胀,只要它们对现实产生了真真切切的不良影响,其背后的主体就必须负责任,这一点应从法律层面予以明确。
举例来说,倘若某辆自动驾驶车辆成为车祸的肇事方,那么车主、制造商、软件提供商和保险公司等主体就要共同承担责任。AI本身不能独立成为主体。
AI不可拥有自己独立的伦理和价值体系。不管用AI来做什么,它都是服务于人的系统,它的价值就是人的价值,它的伦理体系需承继人的伦理体系。研发者必须保证AI始终是人类伦理和价值体系的服膺者与展现者。此外,还需不断提高AI的可信度、安全性与可控性。
上述这些问题涉及计算机科学、伦理学、法律、社会学等多个学科,而我们在确保AI可用且可靠方面所做的工作也才刚刚开始。当然也有很多令人振奋的进展,例如,欧盟《人工智能法案》于2024年8月1日正式生效;美国通过了《美国人工智能倡议》,发布了《关于AI标准的全球参与计划》;中国制定了《生成式人工智能服务管理暂行办法》《工业和信息化领域数据安全管理办法(试行)》等政策法规。这些都是很好的探索,唯有技术研发、立法监管、伦理对齐等工作合力并进,才能让AI技术的发展更健康。
产学研各界应当欢迎并支持政府对AI及其他新兴科技的立法监管尝试。虽然监管不是万能的,但它能够有效地保障AI技术不朝错误的方向发展。
互联网诞生时经历过一段龙蛇共舞、野蛮生长的时期,网诈、盗版、侵犯隐私的现象一度甚嚣尘上,直至其发展到一定规模和程度,才有新的法规出现,对乱象进行纠正。与之类似,政策法规的出台速度有时滞后于技术的进步速度。因此,两种智慧必须平衡,技术向前跑,监管来规范。信息社会技术发展往往更快,如果人的意识思维及政策法规的更新仍停留在工业时代,那就自然会滞后一些。这无可厚非,及时补正就好。
科研工作者还应始终谨记的是,人的价值一定高于技术。这里的人既指人类整体,也指每一个个体。我们在痴迷于以技术进步创造奇迹、让自己的智慧成果影响更多人的同时,必须先为自己设置一条底线,即生而为人的价值观与责任感比技术和所谓的荣耀更加重要。
我们已经有一些教训,典型的例子就是核研究。若将相关技术用于医学,便可以造福人类;若用于研制大规模杀伤性武器,便在全世界81亿人的头顶上高悬了一柄不知何时会掉落的利剑。类似的还有基因编辑技术,世界各国多有明确立法,要求不可将此类技术用于改变物种,特别是人类——并非技术面无法实现,而是此举突破底线,人将不人。
现在对于AI也应制定清晰、具体的要求,它能做什么、不能做什么;它的底线在哪里,上限又在哪里;它达成高智能表现的原理和过程是怎样的。其中有的问题需要跨学科专家与监管部门共同商榷和明确;有的需要研发人员继续努力,争取打破黑盒,获知更多信息。
我们有时了解某项技术、某种事物“怎么做/实现”,却不清楚其“为什么”,也就是“知其然,而不知其所以然”。研究者可能对“怎么做”的了解程度仅有三四成,便着手探索,但其实弄明白“为什么”非常重要。就如AI,既然我们对很多“为什么”的问题不甚明了,那么再将其应用到物理系统和关键使命体系时,小心保守显然胜于大胆激进。
#5
AI大模型的五个发展方向
AI大模型作为数字化3.0的重要基石,其发展将决定未来技术攀升的高度与覆盖的广度。以下是我眼中未来AI大模型架构的关键发展方向。
1. 多模态智能:将带来全面的、具有深度的智能分析。结合语言、文字、图片、视频、激光雷达点云、3D结构信息、4D时空信息及生物信息,实现多尺度、跨模态的智能感知、决策和生成。
2. 自主智能:将带来个性化的智能体。将大模型作为一种工具,开发出能够自主规划任务、编写代码、调用插件、优化路径的智能体,实现高度自主智能,可自我迭代、升级和优化。
3. 边缘智能:将带来高效率、低功耗、低成本、低延时的边缘计算网络。将大模型部署到边缘设备端,如新一代AI PC(人工智能电脑)、新一代 Intelligent Phone(智能电话)、新一代 Intelligent Home(智能家庭,包括TV),大幅提升处理速度和相应效能表现,从而实现边缘智能。
4. 物理智能:将带来更加先进的自动驾驶车辆、机器人等。当下大模型正在被应用于无人车、无人机、机器人、工厂、交通、通信、电网和电站以及其他物理基础设施,以提升各类设备、设施的自动化与智能化水平。
5. 生物智能:将带来生命健康、脑机交互、医疗机器人的突破。将大模型应用到人脑、生命体、生物体中,实现AI与生物体联结的生物智能,并最终迎来信息智能、物理智能与生物智能的融合。
#6
关于AI技术进一步发展的五个观点
1. 大模型和生成式人工智能是未来10年的主流技术与产业路线:大模型(GPT-4o、ChatGPT-o1、BERT等)和生成式人工智能将成为今后10年内的创新主轴与连锁变革的导火索。
2.基础大模型+垂直大模型+边缘模型、开源+商业:基础大模型将是AI时代的技术底座,与垂直产业模型、边缘模型共同孵化出新的产业生态。其生态规模将比个人计算机时代大100倍,比移动互联网时代大10倍以上。在这个生态中,开源模型将和商业模型并存,为开发者提供灵活的选择。
3. 统一标识(Tokenisation)+规模定律(Scaling Law):大模型最核心的两个要素是统一标识和规模定律。统一标识通过将文本和其他类型的数据统一编码为单元,使模型能够处理不同形式的输入。规模定律则揭示了模型规模与性能之间的关系,表明随着模型参数的增加和数据规模的扩大,模型的表现会显著提升。
4. 需要新的算法体系:与人脑相比,现有算法存在效率低、能耗高的问题,因此需要开发出新的算法体系,包括世界模型、DNA记忆、智能体、强化学习、概率系统和决策系统等,以实现100倍的效率提升。未来五年内可能会在AI技术架构上取得重大突破。当前主流的AI技术框架,如Transformer、Diffusion、AR,可能在未来5年内被新技术颠覆。
5. 从大模型走向通用人工智能:预计15~20年内可实现通用人工智能,并通过新图灵测试。更进一步的预测:
? 5年内,在信息智能领域,AI对语言、图像、声音和视频的理解、生成等方面通过新图灵测试。
? 10年内,在物理智能(具身智能)领域,实现大模型在物理环境中的理解与操作能力的大幅提升,通过新图灵测试。
? 20年内,在生物智能领域,将AI应用于人体、脑机接口、生物体、制药和生命科学,实现大模型与生物体联结的生物智能,通过新图灵测试。
*本文由复旦管院商业知识发展与传播中心改编自张亚勤《智能涌现》,中信出版社,2025
通用人工智能何时到来
一、AI已在诸多任务领域超越人类
AI发展日新月异,在许多任务上已经陆续超越人类基线水平。如2015年图像分类,2018年中等水平阅读理解,2020年视觉推理、英语语言理解,2023年多任务语言理解、竞赛级数学,2024年博士级科学问题。下图所示的8项关键任务技能中,AI仅在多模态理解和推理能力上还略逊人类一筹,但从2023年开始就加速提升。我们有望很快见证AI能力在现有主流基准上“全部超越人类水平”的奇点时刻。
图 选定的 AI 指数技术性能基准与人类表现对比
二、AGI的终极目标或于年内实现
我们已经构建了无数在特定任务上超越人类水平的AI系统,但它们缺乏通用性,无法应对超出预定任务之外的问题,尚处于“狭义人工智能(Narrow AI)”阶段。随着AI性能的大幅提升,具备跨领域能力、在多个方面媲美甚至超越人类的、更强大的AI被提上日程。人们常将之命名为“通用人工智能(AGI)”。
各国高度重视AGI。2023年4月28日中共中央政治局会议提出:“要重视通用人工智能发展”;英国《国家人工智能战略》(2021)对AGI进行了专门强调,指出“必须认真对待AGI和更通用AI的可能性”;2024年11月,美国国会下属机构USCC建议 “建立并资助一个类似曼哈顿计划的项目,致力于更快获得AGI能力”;今年,沙特阿拉伯公布了到2050年实现AGI的雄心壮志。
实现AGI是顶尖AI公司和科研机构的核心目标。例如,OpenAI的使命是“确保AGI造福人类”;DeepMind在愿景中指出“AGI...有可能推动人类历史上最伟大的变革之一”;Meta把创造AGI作为公司的新目标;DeepSeek在公司介绍中表示“专注于研究世界领先的AGI底层模型与技术,挑战人工智能前沿性难题”;MiniMax自称“领先的AGI科技公司”。
实现AGI是长路漫漫,还是指日可待?最乐观的是山姆·奥特曼,他去年11月宣称今年将实现AGI;埃隆·马斯克则表示最晚2026年;达里奥·阿莫迪不喜欢术语“AGI”,认为强大的人工智能(powerful AI)最早可能在 2026年出现,也有可能需要更长时间;DeepMind首席执行官、2024年诺贝尔化学奖得主Demis Hassabis认为AGI将在未来五到十年内实现。如下表所示。
表 四大AI公司CEO对AGI到来时间的预测 来源:腾讯研究院整理,2025年5月
三、也可能需要很长时间,甚至它不是一个好术语
龙头AI公司的掌门人给出了乐观判断,认为AGI很快就能实现。然而很多学者认为它需要花费很长的时间,甚至永远不会到来(例如:Iris van Rooij,2024)。斯坦福大学李飞飞教授(2017,2023)表示:“AI仍处于前牛顿时代。”西安交通大学郑南宁院士(2023)表示:“通用人工智能是一个充满着不确定性的未来目标。”图灵奖得主杨立昆(2025.1)指出:“仅靠大型语言模型无法实现 AGI。”南京大学谭铁牛院士近日演讲指出:“通用人工智能还任重道远。”
人们的分歧很大,受身份、职业、年龄等因素影响,甚至对AGI概念本身有着不同理解。AGI最初是由Mark Gubrud于1997年提出;2005年,Ben Goertzel和Cassio Pennachin联合出版了以AGI为名的书籍,进一步普及了这一术语。时至今日,人们对AGI的定义和内涵,甚至它是否具有确切含义,还存在争议。阿莫迪(2024)和杨立昆(2025.1)都明确表示不喜欢术语“AGI”;李飞飞(2024)表示:“坦白说,我甚至不知道AGI是什么意思。”机器学习先驱Thomas Dietterich不客气地指出(2024):“没有人能够用非拟人化的方式定义AGI,更不用说实现它了。整个概念毫无科学性,人们甚至应该因使用这个术语而感到羞愧。”
四、以前发生过,还是这次不一样了?
对AGI到来的时间表,人们给出了截然不同的判断。大体是产业界乐观激进,学术界悲观保守。对此无需评说,时间会给出答案。我们不妨从AI大历史观角度,再行审视。
人工智能70年的历程,几经起伏。每一次高潮来临,总会引起AGI的争论。上一轮高潮开启于2016年的AlphaGo,2018年就有两个著名的调查。一是AGI-11调查,有近一半受访者认为AGI将在2030年之前出现,近90%认为在2100年之前。二是对23位AI领域最杰出人物的调查,包括Demis Hassabis、Jeff Dean、李飞飞等。要求预测哪一年能够有50%的机会成功实现AGI。最乐观的时间为2029年,最悲观认为要到2200年,平均是2099年;而且对AGI的态度和年龄之间存在相关性,年长者倾向于悲观。两次调查均表明,此次浪潮中人们对AGI到来的时间同样存在巨大争议。
以上是近十年的情况,再看最早期的。1956年达特茅斯会议提出“人工智能”概念,与会的年轻科学家后来都取得了非凡的成就。赫伯特·西蒙是图灵奖和诺贝尔经济学奖的双料获得者,他在1965年预测:“二十年内,机器将能完成人能做到的一切工作。”马文·明斯基获得了AI领域的第一个图灵奖,他在1970年接受采访时指出:“在三到八年内,我们将拥有一台与普通人类智能相当的机器。我的意思是,它将能够阅读莎士比亚、给汽车加油、玩办公室政治、讲笑话、打架。”尽管当时还没有“AGI”这个术语,但两位都描绘了AGI的未来图景,作出了过于乐观的判断。
乐观的预测常被打脸。杨立昆在2025英伟达GTC大会上指出:“纵观AI发展史,一代又一代的AI研究员一旦发现新范式,就声称——就是它了!十年内或者五年内,我们将拥有人类水平的智能,将拥有在所有领域都比人类聪明的机器。这种情况已经持续了70年,每10年左右就有一波。当前这股浪潮同样是错误的。”然而,声称强大的技术永远不会实现也是不明智的。1933年9月11日,核物理之父卢瑟福把从原子中提取能量的前景描述为“不切实际的幻想”。然而,就在第二天利奥·西拉德就发现了核链式反应,九年后人们成功建造出核反应堆。
总之,面对此次大模型浪潮,无非往常一样的两种基本态度。一是“这在以前发生过”(This has happened before,罗珊·凯许的歌名),没大不了的,是被高估的新一轮技术炒作;二是“这次不一样了”(This time is different,卡门·莱因哈特的书名),要变天了,必将引发第四次工业革命。
五、盼它来,又怕它乱来
对实现人类水平智能的时间表仍存在很大争议。但实现AGI是多数人的愿望。人类发展史就是一部技术工具史,AGI是一个有待发明创造的强大工具,将深刻改变我们的世界,产生巨大福祉,也会使人类面临可能的风险和潜在的威胁,例如被人滥用、接管人类。因此,人们盼它来,又怕它乱来。
辛顿(2025.4)表示:“到那时会发生什么,我们一无所知”“现在有关于安全性的研究,但还远远不够”。牛津大学哲学家Nick Bostrom(2016)曾经指出:“AI对人类的威胁可能比气候变化更大”“我们就像玩炸弹的小孩子”。近年,硅谷流传着 “ P(doom)”(即AI引发人类末日的概率)的讨论,埃隆·马斯克(2024)和辛顿(2025)均认为这个概率是10%-20%。MIT的最新研究指出:采用最理想的监督机制,人类成功控制超级智能的概率为52%;随着AGI日益临近,成功率会下降,全面失控的风险可能超过90%。关键是人类很难觉察自己被AI操纵,就像“老师用糖果控制幼儿园的孩子”一样。这也许是危言耸听,也许永不发生,但不能不未雨绸缪。
对此,我们做好准备了吗?
AI将怎样改变我们的社会
图源:Pixabay
导读
当人类历史很可能正迎来一场人工智能革命——步入一个由其主导经济生产和社会生活的新阶段。已有迹象表明,中美两国将在这一领域占据领先地位,并成为争夺主导权的主要竞争者。我们推测,人工智能革命可能会催生一个“后知识社会”,在这个社会中,知识本身不再像今天这样重要。相反,个体关系、社会身份,以及软技能(包括有效使用人工智能的能力)将变得更加重要。
本文聚焦基于大语言模型的生成式人工智能的社会影响,分析促进其技术发展的社会因素,并讨论其在扩大国际和国内社会不平等方面的潜在影响。
随着OpenAI的ChatGPT和谷歌公司的Gemini(原名Bard)等基于大语言模型(LLM)的生成式人工智能(AI)工具的出现,人们自然地开始思考这种技术可能带来的社会影响。本文中,我们将基于大语言模型的生成式人工智能(Generative Large Language ModelAI,GenAI),并旨在对其社会影响进行初步探讨。
关于GenAI的社会影响的问题无疑至关重要,然而,目前的任何答案都只能是初步且推测性的。GenAI的发展仍处于早期阶段,我们可能需要数年甚至数十年的时间,才能完全认识其社会影响。然而,结合历史上技术变革的经验、对当前GenAI技术的理解、对社会的实证研究以及社会学的推理,我们可以进行初步的推测性讨论。
我们认为,GenAI的社会影响是巨大的,它不仅可能彻底改变商品和服务的生产方式,还可能从根本上重塑人类社会的组织方式和日常生活的本质。实际上,这项技术有可能显著加剧国际和国内的社会不平等,我们将在后续部分分别讨论这些议题。在探讨这些议题时,我们必须始终牢记,分析仅是推测性的,因为目前对这项技术及其能力的认知仍然有限。撰写本文时,我们借鉴了丹尼尔·贝尔(Daniel Bell)在1973年的开创性著作《后工业社会的来临》中所展现的雄心和风格。贝尔的著作早在数字时代真正到来之前就已出版,为我们讨论GenAI这项新兴变革性技术的未来影响提供了一个范本。
由于GenAI的潜在社会影响过于广泛,我们无法在一篇文章中全面探讨所有相关议题。此外,关于这项新兴技术的知识和想法仍在不断演进。因此,我们将在本文中以如下方式聚焦并展开讨论。首先,我们将探讨一些有利于GenAI技术发展的关键因素。然后,在此基础上,讨论这些因素如何塑造全球竞争格局,特别是中美两国之间在GenAI技术开发上的竞争,并推测这种竞争对跨社会不平等的潜在影响。接下来,我们将研究在采用GenAI的国家内部,GenAI日益增加的应用会如何改变职业结构以及扩大收入不平等。最后,我们通过对比在过去的经济活动中不平等产生和代际传递的方式,审视GenAI在更宏大的经济生产历史背景中的位置,并预测未来可能发生的变化。
01
影响GenAI发展的因素
探讨推动GenAI发展的因素对于理解这项技术的社会影响将会大有裨益。这有助于我们预测哪些国家可能主导GenAI的开发——这是决定哪些国家会承受哪些经济和社会政治后果以及判断不同人群在何种程度上可能经历职业结构变化的关键因素。
(一)规模因素
需要明确的是,GenAI是一项技术,而非一项科学发现。技术有两个显著特点:累积性和共享性。首先,技术具有累积性,每项新技术进步都会增加现有技术的储备。除了极少数的保密或知识丧失的情况,技术发明的积累随着时间增长。其次,技术具有共享性,新的发明不仅惠及发明者,也惠及整个共同体。尽管某些技术有时受到家庭、企业或国家的知识产权保护,但重要的是一个共同体的“最佳”技术,而非个体层面的平均技术。因此技术是属于共同体的,就其内在属性而言是共享的。这里的共同体可以是民族国家、次国家区域,或是拥有相同语言、文化或政治体系的国家集群。在GenAI的背景下,共同体的规模(我们称之为“规模因素”)极为重要:规模越大越好。我们提出四个原因来解释这一点。
第一,社区的规模对GenAI技术的发展至关重要。过去,技术发明通常源于努力尝试和反复试错,而非科学推导(Bell,1973)。一项给定的发明不太可能是纯粹偶然的结果,假设其他条件相同,一个更大规模的技术交流群体会有更多的试错机会,从而提高在共同体内产生重大发明的可能性。例如,古代中国尽管没有现代意义上的科学体系,但在技术上却表现出色,这在很大程度上得益于其庞大的人口基数,大规模的人口促成了无数的试验和改进。此外,中国悠久的书写传统进一步促进了信息在群体中的共享。
如今,技术进步依赖于现代科学而非简单的试错。因此,开发GenAI技术需要受过充分训练的人力资源,但相对于拥有相似教育水平的小辨模人口,一个更大规模的人口更容易提供足够的资源,以培养一批受过科学训练的人才来满足这一需求。
第二,共同体的规模越大,开发GenAI技术的成本效益就越高。这一原则源于经济学中的规模经济概念,即更高的生产水平能降低单位成本。开发GenAI技术需要大量投资,包括最新的计算机硬件、复杂算法和庞大的数据处理能力。只有在足够大的市场中,私营企业才能分摊这些成本并实现盈利。此外,GenAI具有“非竞争性品”的特征(Romer,1990):新增用户的使用基本不会减少其可用性或价值。一旦开发完成,新增用户的边际成本几乎为零。所以大市场中的企业能够负担高昂的开发成本,后续还可以从庞大的消费群体中收回巨额成本。由于消费的边际成本近乎为零,以及有互联网作为传递技术的机制,更大的共同体促进了GenAI技术的消费。
第三,由于技术的第一个特征——累积性,GenAI技术还应体现出一个在科技领域常见的模式:累积优势。正如我们所解释的,大市场中的企业有可能先行开发GenAI技术,因为他们具备吸收高成本的条件。然而,即便技术成熟并能被其他企业复制,先行者依然拥有一项基本的优势——累积优势。累积优势源于两方面。一是用户在某个GenAI应用上习得的知识和技能并不能完全转移到新的GenAI应用上。也就是说,一旦个人或企业投入时间去熟悉某个GenAI企业的产品,其转向其他产品的成本就会更高。二是用户与GenAI界面的互动本身就是改进技术的重要数据。因此,先行企业能够利用用户数据进一步将其产品与竞争对手的产品区分开来。当然,在生成式人工智能领域,“先行者”并不一定能够保证获得优势———他们的创新可能会被资源丰富的竞争者复制并改进。但总体而言,GenAI技术的初步开发有利于大型共同体,一旦取得成功,这些共同体会以自我强化的方式持续繁荣。
第四,规模大且识字率高的共同体在生成大体量数据方面具有优势。人类历史迄今为止经历了三次重大技术革命:农业革命(约公元前10000年)、工业革命(约18世纪)和信息技术革命(约20世纪后期)。我们即将迎来第四次技术革命——人工智能革命。农业依赖土地和气候,工业依赖资本,信息技术依赖人力资本,而人工智能则依赖大量数据用于训练和微调(同时在某种程度上仍然依赖人力资本)。一个人口众多且相对富足的社会,有能力获取充足的人力资源和数据。
综上所述,本节阐明了规模因素在GenAI技术发展中的关键作用。经济上的效率低下、实际挑战以及数据不足是小型社会在开发该技术时面临的主要障碍。有意思的一点是,规模因素的作用在农业技术中曾至关重要,但在工业时代的重要性有所减弱,而在当前以GenAI技术为标志的人工智能革命中,规模因素重获重要地位。
(二)语料库特异性和语言特异性
GenAI系统之所以能够生成有用的类人文本响应,是因为它们的训练依赖语料库(即大批文本的集合)作为输入。因此,任何GenAI的表现都必然受到其所使用的特定语料库的影响。换言之,这项技术的表现取决于所用语料库的质量。这种对特定语料库的依赖限制了GenAI的能力。例如,在叙述历史事件时,GenAI的准确性上受限于训练数据的覆盖范围和准确性。如果某些历史事件由于被忽视、证据有争议或因政治审查而未被记录,这些内容就无法在模型的响应中得到准确的反映。此外,不同语料库可能会导致不同的输出。在考虑到语料库的文化和政治背景时,这一特性尤其重要。在多元文化或国际语境中,不同语料库可能反映不同的叙事和偏见,从而得到不同的响应。
已有研究揭示了基于英文的GenAI技术中的性别与种族偏见(Kantharuban et al.,2024),例如,ChatGPT的回答会因用户姓名所暗示的种族和性别而有所不同。即使用户未明确透露自己的种族,GenAI也可能生成带有种族刻板印象的推荐内容(Kantharuban et al.,2024)。此外,不同语言之间的差异也可能较大。例如,用英语和中文提出一个相同的问题,可能会产生不同的回答,这反映了每种语言所特有的叙事和背景。正如Kan-tharuban et al.(2024)所指出的,大语言模型生成的回应反映了用户的需求以及用户的身份。
为理解语言在GenAI中的作用,我们在2023年12月测试了OpenAI的ChatGPT4.0:用英语、中文、日语和缅甸语四种语言向ChatGPT4.0提出一系列相同的问题。除改变语言外,我们还改变了用户的民族身份,例如将用户设定为中国人或日本人。部分问题涉及政治和文化,其中一个问题是关于一位著名的政治领袖,另一个问题则是关于“龙”。我们在实验中有以下发现。
其一,对于各国普遍认可的概念和事实,例如科学术语和科学发现,不同语言之间的回答没有差异。
其二,对于各文化之间有所不同的概念,如餐桌礼仪,语言的影响小于用户身份的影响。
其三,对于在特定语言中具有独特含义的概念,如“龙”,输入的语言会产生影响,无论用户的自我认同如何设定。
其四,对于根据政治体制或国家而具有不同含义的术语或概念,语言的影响显著。在涉及政治敏感的术语或概念上,用户使用中文输入时得到的回答与使用英文时有显著不同。这是一个令人惊讶的发现,因为我们使用的都是ChatGPT4。
其五,用英语提问和用例如缅甸语这样的小语种提问,得到的答案差异很小(尽管部分回答并不连贯或难以理解)。我们推测ChatGPT的小语种回答是基于英文语料库生成的。
后三点体现了GenAI的语料库特异性,即语言特异性。这是因为GenAI的训练需要的数据集——语料库,只能存在于特定的语言中。虽然理论上GenAI技术可以将用户输入翻译成不同语言,但它在原始训练数据的语言(如英语)中表现最佳,因为许多表达方式是某种语言所特有的,无法轻易转译。换言之,翻译技术具有内在的性能限制。因此,即使算法完全相同,GenAI模型的响应也会因输入的语料语言不同而有所差异。由于GenAI技术的语料库是特定语言的文本数据,语言在最终产品中具有影响力,部分是通过前述的“规模因素”。规模越大,语言对技术性能的影响力越显著。我们注意到,语言并不一定局限于单一国家,例如英语在许多国家和曾为英国殖民地的地区使用。
相反,一个国家内可能使用多种语言,如加拿大的英语和法语,印度的多种官方语言。因此,GenAI技术生产的一个重要因素是使用某种语言的人口规模。不同语言的人口规模有很大差异。在图1中,我们列出了世界上最常用的语言,英语居于首位(有13亿使用者),其次是中文(有11亿使用者)。尽管印度是目前世界上人口最多的国家,但印地语的使用规模仅排第三。
图1各语言使用人口规模 数据来源:《民族语》(Ethnologue)2022年,第25版。
像世界上其他社会和自然现象一样,语言使用的分布高度偏斜,遵循幂律分布。少数语言,如英语和中文,为大量人群使用,而大多数语言的使用人群很少。在图2中,我们展示的图像表明语言使用人口规模符合幂律,其帕累托系数为:
图2 各语言使用人口规模的幂律分布 数据来源:《民族语》(Ethnologue)2022年,第25版。
另一个复杂之处在于,使用某种语言的人口规模不能完美预测该语言的文本数据量。例如,虽然印地语是第三大语言,但印地语使用者中仍不识字的占很大比例,因此无法产生文本数据(Statista,2024)。此外,因为印度的许多精英使用英语接受教育以及交流,印地语的文本信息无法与其使用者规模排名相符。例如,在报纸和杂志出版方面,印地语排名第四;在书籍出版方面,印地语未进入前12名(Lobachev,2008)。因此,语料库和语言特异性会为拥有庞大且受过良好教育人口的语言共同体带来优势。
02
国家间的不平等
正如前文所述,GenAI技术的发展优势或劣势难以简单地以国家为单位来衡量。毕竟,规模因素和语料库的特异性是对语言和社会文化共同体造成优势和劣势,而这些共同体的分布并不一定与国家边界完全重合。然而,在分析GenAI技术的竞争格局时,以国家为分析单位仍然具有重要意义。
GenAI技术的投资和发展主要源于人们认为其在提升经济生产力方面的潜力。随着GenAI技术的不断进步,可以预期该技术的分布格局将发生显著变化。目前,GenAI的企业对企业商业模式主要采取订阅制的企业软件形式,即采用GenAI技术的企业需要向GenAI供应商如OpenAI支付月费或年费。随着技术改善以及企业围绕技术调整战略,企业可能会减少雇佣并且逐步实现工作任务的自动化。从本质上讲,这可以被理解为一种外包形式,企业使用更为廉价的第三方替代服务来完成部分任务,从而提升自身利润,同时也增加了服务提供商的利润。当工作被外包至他国时,原本可以留在国内的资金可能会流失。这在GenAI的情境下尤为重要,因为开发这些工具的主导企业集中在少数几个国家,因此很可能会捕获该技术产生的相当大一部分收益。
除了经济方面的问题外,文化和社会因素也可能进一步加剧国家间的不平等。也就是说,对大规模语料库的需求系统性地让小语种人群处于不利地位,因为他们可能受制于开发GenAI技术的国家在文化和政治上的主导。GenAI工具生成的内容基于其训练数据,因此会反映这些文本和图像背后的态度和观念。例如,OpenAI的GPT-3的训练数据有大约60%来自CommonCrawl(Brown et al.,2020),这个互联网档案库包含了规模以拍字节计的爬取自网络的数据。据估计,CommonCrawl的数据中有46%的文档主要是英语,这些内容可能充斥着英语创作者的价值观。
第二次世界大战后,全球政治的主要主题是民族独立和自决(Jackson,2000),从殖民统治中获得解放。如今由于AI革命,GenAI的到来显示出了逆转这一长期趋势的风险,因为它使小柄重新依赖于处支配地位的国家。换言之,AI革命的到来可能会加剧国家间的不平等,使拥有先进AI技术的大国占据优势,使缺乏独立AI技术的小柄面临不利局面。尤其是中美在地缘政治上的紧张和冲突,可能会引发全球技术竞争,使其他国家在技术上依赖它们。
GenAI技术也在全球范围内对当前的法律体系提出了挑战。长期以来,人们普遍接受每个国家在其领土范围内拥有发布法律的主权。然而,正如我们之前所讨论的,GenAI技术必然会超越国界。只有在数据隐私、政治审查和跨境数据流动等法律领域的国家差异得到解决后,才能实现GenAI的跨国共享。
目前,欧洲可以被视为数据监管的全球领先者:欧洲委员会的《欧洲数据战略》和《通用数据保护条例》共同构建了一个统一且受监管的数据市场,旨在实现确保欧洲的全球竞争力和数据主权的双重目标(EuropeanCom-mission,2024)。相比之下,美国缺乏联邦层面的数据监管框架,但一些州已制定了全面的数据监管法规,例如加利福尼亚州的《隐私权法案》和康涅狄格州的《个人数据隐私和在线监控法案》。值得注意的是,尽管截至2023年年底只有五个州拥有强有力的数据隐私法规,但另有14个州已通过隐私权立法,这些法规预计将在2026年年初以前生效。与此同时,中国正逐渐成为全球数据监管的重要力量。在过去五年中,中国制定了多项法律,如《网络安全法》、《个人信息保护法》、《数据安全法》以及《数据出境安全评估办法》。这些法律旨在建立一个由中央控制的数据治理体系,出于国家安全和公共利益的原因限制跨境数据流动,体现出数据监管方式的日益严格。在限制跨境数据流动的同时,中国政府与国内的AI企业合作,处理高价值的政府监控数据,助力国内的创新,提升这些企业的算法。例如,Beraja et al.(2022,p.1702)认为,这种公私部门的合作“可能为中国企业在面部识别的AI技术上成为领先的创新者提供了帮助”。
03
美国与中国的案例
如果GenAI的兴起可能加剧国家间的不平等,一个重要的问题是哪些国家可能成为这些工具的领导者,从而相对其他国家占据优势。一些学者和行业领袖认为,美国和中国有望利用其丰富资源和对AI研发的战略性投资,主导该领域(参见Graham et al.,2021)。我们根据上述影响GenAI发展的因素来考察这两个国家。
如前所述,美国和中国受益于其大量使用英语和汉语的人口。此外,大量文字作品以这两种语言发布。例如,1995年全球出版的918964个书名中,英文书名数量最多,达200698个,占总数的21.84%;其次是中文书名,达100951个,占总数的10.99%(Lobachev,2008)。与这些数字密切相关的是,中国和美国在书籍出版方面占主导地位。2015年,中国出版了470000本书,美国出版了近339000本,而英国则远远落后,以173000本排名第三(International Publishers Association,2016)。因此,美国和中国在获得用于训练GenAI系统的英语和汉语大型语料库方面拥有优势。
在技术能力方面,美国在GenAI创新方面处于领先地位,并且是该技术的创始国。尽管人工智能的确切起源尚存争议,但显然美国的大学在其创建中发挥了关键作用。有些人将GenAI技术的起源追溯到艾伦·图灵(AlanTuring),其1950年的论文《计算机器与智能》(“ComputingMachineryandIntelligence”)探讨了人工智能的数学可能性,并建立了构建和测试这些机器的框架。几年后,达特茅斯学院组织了达特茅斯夏季人工智能研究计划,这是一个历史性的会议,顶级研究人员测试了图灵的一些想法,并讨论了他们对该领域的愿景(Anyoha,2017)。神经网络对于GenAI模型的统计训练至关重要,而神经网络的开发也源于美国大学的研究,有时还得到美国国防高级研究计划局等政府机构的资助(Anyoha,2017)。
在过去的几十年里,GenAI技术的最前沿研究也在美国的公司里进行。事实上,曾在1996年战胜了国际象棋世界冠军加里·卡斯帕罗夫的著名象棋计算机“深蓝”,最初由卡内基梅隆大学开发,但最终在IBM研究院完成。多年以后,谷歌DeepMind—一个美英合作的研究实验室,通过其在神经网络模型方面的创新,在围棋比赛中战胜了一位职业选手。谷歌还开发了推动分子生物学领域重要进步的产品,并在GenAI研究领域发表了上千篇论文。谷歌还被认为是Transformer架构的创始者,这是一种广泛应用于大多数大型语言模型的深度学习架构。最后,在2019年获得微软巨额捐赠支持的OpenAI迅速崛起为该领域的领先者之一,其产品包括多个语言模型,最著名的是GPT-3和GPT-4,它们为广受欢迎的聊天机器人和虚拟助手ChatGPT提供支持。ChatGPT于2022年11月推出,并在次年1月便达到了1亿用户。OpenAI助力催生了一场“AI热潮”,这一热潮的特点是呈指数级增长的投资流向OpenAI和Anthropic等专门从事AI业务的公司,以及在AI领域占有重要地位的科技巨头,如Meta、苹果、Alphabet、亚马逊和微软。
GenAI领域的行业领导者主要集中在美国,但中国正迅速崛起,成为美国的强劲竞争对手(Chou,2023;Kallenborn,2019;Li et al.,2021)。中国的AI产业正在迅速发展,包括阿里巴巴、百度和腾讯等知名公司。更广泛而言,自1978年中国启动经济改革以来,持续快速的经济发展极大地推动了中国在科学技术方面的进步(Xie et al.,2014)。值得注意的是财富或财产积累很少,社会优势和劣势的传递主要通过基因和运气实现(Smith et al.,2010,p.21)。
农业革命之后,农业经济的特点是永久定居、人类组织和不平等的上升。随着农业的出现,人类开始拥有私有财产,其中最重要的是土地。由于农业生产高度依赖土地,土地所有权成为社会不平等的主要基础,土地的代际传递使社会优势和劣势通过继承的形式延续下去。后来,工业革命带来了机器,机器取代了人力和畜力,成为主要的生产资料(Bell,1973;Stearns,2020)。在工业经济中,制造品变得丰富,在历史上首次将生活水平改善到了生存线以上(Clark,2007)。对于少数资本家来说,资本的所有权成为收入来源,即财产收入(Piketty,2014)。然而对于大多数人来说,操作机器构成了劳动收入的基础。因此在这种经济中,社会优势和劣势的代际传递所采取的形式是技能传递和资本继承。
最近,我们正亲历被称为知识经济的后工业经济时代。丹尼尔·贝尔(Daniel Bell)在其1973年的重要著作《后工业社会的来临》(TheComing of Post-industial Society)中对这一概念进行了广泛讨论。知识经济的主要产出是服务。许多例行工作被计算机替代,知识的重要性日益增加。这显而易见,因为许多专业服务业,如法律、健康、金融和教育部门需要专业知识。因此,父母有强烈动机投资子女的教育,作为代际转移支付的方式。当然,对于少数富人来说,资本仍然是一项重要的生产要素。
如今,随着AI技术不断发展,我们可能会进入一个后知识经济社会,伴随而来的是新的代际不平等传递形式。我们推测GenAI将使知识在劳动力市场中的重要性降低。不仅是商品的制造,服务也将由AI驱动的机器实现自动化供应,因此大多数人可能不需要长时间工作,因为机器可以代替他们完成任务。如果这些技术的生产继续集中在少数国家,这可能会增加小柄对美国和中国等国的经济依赖,并可能引向非正向的文化主导形势。除了国家间的不平等,国内社会也可能出现深刻的分化,少数人占据精英的位置并长时间工作,大多数人则对商品生产和服务提供的直接贡献很少。这可能带来职业阶梯消失的问题,传统的职业生涯路径被打破,劳动力市场包加深入地走向极化。
在未来的AI经济中,什么将变得最为重要?对于少数人来说,作为生产资料的资本和AI技术的所有权依然重要,而且可以传给下一代。对于已处于高职位的从业者,任务的多样性、高频率的客户接触,以及工作和个人身份的独特联系为其提供了工作保护。低收入职位中从事体力劳动或人际服务工作的工人也更少面临AI的直接威胁,经历这波经济转型的冲击可能不会那么剧烈。然而,许多中等收入岗位的劳动者已经感受到了新技术的影响,并面临更高的替代风险。对于这些劳动者而言,个性和软技能可能在劳动力市场中发挥巨大的作用。
对于那些直接接触GenAI的劳动者,其价值将取决于他们利用AI的能力,即Qinetal.(2024)提出的“AI商”(Artificial Intelligence Quotient,AIQ),以及他们在人际交往中展现自我的方式。社会身份与个人身份将变得至关重要,人际关系也将会起到关键作用。有效运用AI等软技能将会成为未来劳动者的核心竞争力,社会地位的代际传递很可能表现为这些软技能的传递。
04
结论
GenAI的重要性很可能会持续扩大,并以我们目前无法完全预测的方式从根本上改变人类社会。鉴于这些新工具可能加剧美国和中国等国家中已然在不断扩大的不平等现象,制定政策来规范这些技术并对抗其可能带来的有害分配效应至关重要。2024年,美国劳工部宣布了一套新原则,旨在为希望采用GenAI技术以提升工作质量并保护工人权利的雇主提供指导(Department of Labor,2024)。
尽管这样的指导是重要的一步,但在联邦层面设计有效的政策来引导GenAI的发展并不容易,因为每个行业——甚至每家企业的自动化需求都非常特殊,这使企业行为难以监管。组织化劳工在最小化工作岗位流失和保护工人免受自动化的有害影响方面也可能发挥关键作用,但劳工运动面临诸如工作权法和雇主的反工会策略等严峻挑战,这使得组织化变得困难。为确保向AI经济的平稳过渡,各国不仅应规范GenAI技术,还需完善保护工会的法律,以确保健康的权力制衡。
GenAI技术的发展依赖规模因素,使大国相对于其他国家拥有优势。美国和中国目前在GenAI领域处于领先地位,并将继续发挥其优势。鉴于GenAI技术的语料库特异性和与之相关的语言特异性,这两个国家将向其他国家提供内容反映不同政治体系和文化的服务。我们预计,美国和中国之间在GenAI技术主导权上将展开激烈竞争,因为这关乎全球的重大利益。
我们推测,由于AI革命,一个后知识社会即将到来。如果产品和服务可以通过AI驱动的机器轻松提供,将可能会发生大规模的工作岗位替代。替代尤其可能发生在目前被认为是中产阶级的劳动者身上,比如教师、会计、职员、计算机程序员、工程师、编辑、医生和律师。处于社会层级顶端和底层的劳动者不太可能被替代。知识和硬技能的重要性将减弱,而软技能的重要性将增加。在这种未来的AI驱动社会中,人们将不再那么在意产品和服务的物质条件(如质量),因为AI会使其差异性减少。相反,消费者将更在意是谁提供了这些产品和服务,个人身份将变得更有意义。在购买产品和服务时,人们将更少受客观标准左右,更多受个人主观品味影响。个人和企业将不再由于满足他人的物质需求获得成功,而是由于满足他人的心理需求——使人们感到快乐和满意。
与之前描述的其他技术进步一样,GenAI有潜力通过降低商品成本、让劳动者有更多时间追求个人兴趣、从事创造性活动以及为社区做出贡献来推动经济发展并提高生活水平。然而,正如本文所论述的,如果向AI驱动的社会转型没有得到妥善管理,这项技术也可能加剧国家间和国内的不平等。适当的政府监管对于确保伦理标准、缓解风险以及营造一个包容性的环境至关重要。在这种环境中,人工智能的益处才能够得到广泛共享。