杨立昆现场追问:不过3道认知墙,谈什么通用智能?
2025-05-16 04:25:52 · chineseheadlinenews.com · 来源: AI深度研究员
最近的一两周时间里,65 岁图灵奖得主 、Meta首席AI科学家Yann LeCun(杨立昆) 先后出现在新加坡国立大学与宾大工程学院的讲台。他没有谈参数,也没有夸算力,而是抛出一句让全场安静的反问——“当模型连‘杯子在桌子上’都可能答错,为什么我们敢说它懂世界?”
?? 第一节|第一道墙:看不懂物理世界
“我们最聪明的 AI 系统,连猫都不如。它们不能理解物理世界的常识。” ——Yann LeCun
“我们现在的 AI 系统,在这方面连狗都不如。”
? 问题不在于数据,而在于“看世界的方式”
? LeCun的解法:预测真实,而非生成语言
LeCun认为,越过这堵“物理常识缺失”的墙,关键不在于调模型、堆算力,而在于:
让系统具备对现实的抽象建模能力,而不是只是生成语言。
今天的AI,可以告诉你‘这个杯子掉了’,但它不知道‘为什么会掉’。
而真正的智能,正是从“因果理解”开始的。
不是让AI变得更能“说”,而是更能“懂”。
?? 第二节|第二道墙:没有长时记忆
“大语言模型并不真正拥有记忆。它们只是看得更多,但记不住任何事。” ——Yann LeCun
“我们一个4岁的孩子在成长过程中大概接收了?10???字节的信息。而一个 GPT 级别的模型,也训练了?10???字节的 token。”
数据量看起来相似,但差别巨大。
人类不是只“看”这么多——而是整合、抽象、积累并持续更新。而大模型只是“扫一遍,然后忘掉”。
? 这就是为什么模型越大,输出却越来越“无主体感”
? 记忆机制,才是下一代智能系统的核心突破口
?? 第三节|第三道墙:没有推理结构
“我们今天的大语言模型,不是在思考,而是在猜下一个词。” ——Yann LeCun
? 推理,意味着目标导向的结构展开
真正的推理不是“接下来该说什么”,而是:
面对一个从未遇见的问题;
在脑中调用规则、模型和假设;
一步步演绎、分解、验证。
LeCun强调,大语言模型在结构上根本不具备这套能力:
“语言模型不是问题求解器,它只是一个自编码器,以预测为本能。”
? 他公开反对“奖励足够了”这类路径幻想
? 没有内部模型,AI 只能“碰运气”
?? 第四节|破解路径:JEPA 架构登场
“我们要让系统预测现实,而不是续写句子。” ——Yann LeCun
我们不是让系统在像素层面重建视频,而是在高层抽象空间中预测接下来会发生什么。
? 为什么要预测表示,而不是还原原始数据?
LeCun指出:视频、音频等连续信号高度复杂,预测像素几乎不可能。 但我们可以先学习一个低维度的、抽象的“潜在表示空间”,再在这个空间中进行预测。
这类似人脑在看见一段动作后,不是还原每一帧,而是形成一个动态理解模型。
? JEPA 的区别在哪里?
JEPA 是 LeCun 概念中的“高级机器智能”(AMI)架构的底座。
JEPA 不是商业上的“下一代模型”,而是方向上的重新定向。
LeCun的回答很清晰:如果我们不改变底层架构,就永远造不出真正懂世界的 AI。
?? 第五节|重定义:AMI 取代 AGI?
“AGI 是伪命题,我们需要的是 AMI——高级机器智能。” ——Yann LeCun
LeCun并不回避“通用人工智能”这个话题。但他的态度很明确:他不信 AGI,也不追 AGI。
他认为这个概念存在两个根本问题:
误判了人类智能的本质
掩盖了真正的系统设计路径
? 人类智能,从来不是“通用”的
人类智能是非常专门化的,只是在我们擅长的任务上看起来很强。
LeCun提出一个看似挑衅,实则深刻的观点:我们之所以觉得自己“通用”,是因为我们无法意识到那些我们永远无法理解的事物。
所以我们误以为:我们能理解的,就是全部。
而 AGI,恰恰建立在这种错觉之上。
? AMI:比“通用”更现实的目标
LeCun提出一个替代概念:AMI(Advanced Machine Intelligence)
它的特征不是“无所不能”,而是具备以下核心能力:
对现实有抽象建模能力(世界模型)
有持久记忆和状态追踪机制
能规划、分解任务、做中长期推理
能通过多模态感知和环境互动逐步学习
AMI 不是试图“模拟人类”,而是构建适合机器自身的智能系统架构。这是一种系统理性,而非幻想超越。
? 为什么 AMI 更重要?
AGI是一个故事,AMI是一个系统。
前者吸引投资,后者真正推进能力边界。
LeCun的选择很明确:他不站在 hype 上,他站在架构底层。
?? 第六节|行动建议:别卷模型,卷架构
“学术界不该再追 LLM,应该去做工业界没时间做的事。” ——Yann LeCun
LeCun的这句话,像是对整个AI创业圈泼下的一盆冷水。
所有人都在调模型、堆RAG、炼提示词。 但在他看来,这种热闹的局面,本质上是资源错配。
? LLM 已是产业路线,创新窗口正迅速关闭
LeCun点出一个现实:“LLM 已经掌握在工业界手里,几家公司用几千张 GPU,配几百名工程师在打磨。学术界很难再贡献突破性的东西。”
这话也适用于大多数 AI 初创公司。
如果你做的,是“训练大模型”或“在大模型上包皮”,那么你面临的,不是技术门槛,而是资源垄断与同质化淘汰赛。
? 真正的“空白地带”,藏在三道认知墙之后
LeCun给出了新的方向:
具身智能(Embodied AI)
多模态感知(视觉+触觉+动作)
表示学习与预测建模(JEPA架构)
长期记忆与推理能力
这些并不是市场热点,但它们有一个共同特征:
没人有现成方案,没人规模化做,没人垄断 GPU。
这才是技术创业者最应该押注的地方。
? 创业机会,不在模型后缀,而在架构前提
不是 GPT-Next、Claude-Plus、LLaMA-Max, 而是:
谁能构建新一代“表示系统”;
谁能让 AI 理解连续世界;
谁能让系统从行动中自主学习。
LLM 是终点,JEPA 是起点。
真正的下一代 AI,不是能说得更顺,而是能想得更深。
? 你以为AI在进化,其实是认知还没进化
Yann LeCun 这场鲍开对话,抛出的不是技术路线图,而是一个基本问题:
我们理解的“智能”,到底是什么?
当全世界都在追求更大的模型、更低的token成本、更快的输出速度, LeCun却回到起点,追问了三件事:
AI 看得见世界,但看得懂吗?
它能说一段话,但能记住罢才那句话吗?
它能接得上节奏,但知道要往哪去吗?
如果这些都不能,智能不过是算法的幻觉。
在这场由 OpenAI 引爆的大模型竞赛中, 越来越多的人误把 token 的生成能力,当成智能的全部。
但真正的竞争力,可能藏在这些不被注意的角落里:
能不能建构世界模型?
能不能规划行动?
能不能拥有自己的“认知系统”?
LeCun 的提问,像是一道延迟引爆的火线—— 它让所有从业者都必须重新思考:
你是在提升模型能力,还是在放弃对智能的定义权?
未来真正值钱的,不是会生成的模型,而是能理解问题的人类。