Yann LeCun 核心观点

sucks!

「 sucks!(机器学习糟透了)」Yann LeCun 把这个小标题放在了 PPT 的开头。不过,他还补充了一句:与人类和动物相比。

机器学习有什么问题?LeCun 分情况列举了几项:

监督学习(SL)需要大量的标注样本;

强化学习(RL)需要大量的试验;

自监督学习(SSL)需要大量的未标记样本。

而且,当前大部分基于机器学习的 AI 系统都会犯非常愚蠢的错误,不会推理(),也不会规划(plan)。

相比之下,人和动物能做的事情就多了很多,包括:

理解世界是如何运作的;

能预测自己行为的后果;

可以进行无限多步骤的推理链;

能将复杂的任务分解成一系列的子任务来规划;

更重要的是,人和动物是有常识的,而当前的机器所具备的常识相对肤浅。

reason是什么意思_reason_reason是什么意思

自回归大型语言模型没有前途

在以上列举的三种学习范式中,Yann LeCun 重点将自监督学习拎了出来。

首先可以看到的是,自监督学习已经成为当前主流的学习范式,用 LeCun 的话说就是「Self- has taken over the world」。近几年大火的文本、图像的理解和生成大模型大都采用了这种学习范式。

在自监督学习中,以 GPT 家族为代表的自回归大型语言模型(简称 AR-LLM)更是呈现越来越热门的趋势。这些模型的原理是根据上文或者下文来预测后一个 token(此处的 token 可以是单词,也可以是图像块或语音片段)。我们熟悉的 LLaMA (FAIR)、 () 等模型都属于自回归模型。

但在 LeCun 看来,这类模型是没有前途的(Auto- LLMs are )。因为它们虽然表现惊人,但很多问题难以解决,包括事实错误、逻辑错误、前后矛盾、推理有限、容易生成有害内容等。重要的是,这类模型并不了解这个世界底层的事实( )。

reason是什么意思_reason_reason是什么意思

从技术角度分析,假设 e 是任意生成的 token 可能将我们带离正确答案集的概率,那么长度为 n 的答案最终为正确答案的概率就是 P () = (1-e)^n。按照这个算法,错误会不断积累,而正确性则呈指数级下降。当然,我们可以通过将 e 变小来缓解这个问题(通过训练),但无法完全消除,Yann LeCun 解释说。他认为,要解决这个问题,我们需要在保持模型流畅性的同时,让 LLM 不再进行自回归。

reason是什么意思_reason_reason是什么意思

reason是什么意思_reason是什么意思_reason

LeCun 认为有前途的方向:世界模型

当前风头正劲的 GPT 类模型没有前途,那什么有前途呢?在 LeCun 看来,这个答案是:世界模型。

这些年来,LeCun 一直在强调,与人和动物相比,当前的这些大型语言模型在学习方面是非常低效的:一个从没有开过车的青少年可以在 20 小时之内学会驾驶,但最好的自动驾驶系统却需要数百万或数十亿的标记数据,或在虚拟环境中进行数百万次强化学习试验。即使费这么大力,它们也无法获得像人类一样可靠的驾驶能力。

reason是什么意思_reason是什么意思_reason

所以,摆在当前机器学习研究者面前的有三大挑战:一是学习世界的表征和预测模型;二是学习推理(LeCun 提到的 2 相关讨论参见 );三是学习计划复杂的动作序列。

reason_reason是什么意思_reason是什么意思

基于这些问题,LeCun 提出了构建「世界」模型的想法,并在中进行了详细阐述。

具体来说,他想要构建一个能够进行推理和规划的认知架构。这个架构由 6 个独立的模块组成:

配置器()模块;

感知模块( );

世界模型(World model);

成本模块(Cost );

actor 模块;

短期记忆模块(Short-term )。

reason是什么意思_reason_reason是什么意思

这些模块的具体信息可以参见机器之心之前的文章《》。

Yann LeCun 还在 PPT 中阐述了之前论文里提到的一些细节。

reason是什么意思_reason是什么意思_reason

reason是什么意思_reason是什么意思_reason

reason是什么意思_reason_reason是什么意思

如何构建、训练世界模型?

在 LeCun 看来,未来几十年阻碍人工智能发展的真正障碍是为世界模型设计架构以及训练范式。

训练世界模型是自监督学习(SSL)中的一个典型例子,其基本思想是模式补全。对未来输入(或暂时未观察到的输入)的预测是模式补全的一个特例。

reason是什么意思_reason是什么意思_reason

如何构建、训练世界模型?需要看到的是,世界只能部分地预测。首先,问题是如何表征预测中的不确定性。

那么,一个预测模型如何能代表多种预测?

概率模型在连续域中是难以实现的,而生成式模型必须预测世界的每一个细节。

基于此,LeCun 给出了一种解决方案:联合嵌入预测架构(Joint- ,JEPA)。

JEPA 不是生成式的,因为它不能轻易地用于从 x 预测 y。它仅捕获 x 和 y 之间的依赖关系,而不显式生成 y 的预测。

reason是什么意思_reason_reason是什么意思

通用 JEPA。

如上图所示,在这种架构中,x 代表过去和当前观察到的,y 代表未来,a 代表 ,z 代表未知的潜在变量,D()代表预测成本,C()代表替代成本。JEPA 从代表过去和现在的 S_x 的表征中预测一个代表未来的 S_y 的表征。

reason_reason是什么意思_reason是什么意思

生成式架构会预测 y 的所有的细节,包括不相关的;而 JEPA 会预测 y 的抽象表征。

reason是什么意思_reason是什么意思_reason

reason_reason是什么意思_reason是什么意思

reason是什么意思_reason是什么意思_reason

在这种情况下,LeCun 认为有五种思路是需要「彻底抛弃」的:

放弃生成式模型,支持联合嵌入架构;

放弃自回归式生成;

放弃概率模型,支持能量模型;

放弃对比式方法,支持正则化方法;

放弃强化学习,支持模型预测控制。

他的建议是,只有在计划不能产生预测结果时才使用 RL,以调整世界模型或 。

与能量模型一样,可以使用对比方法训练 JEPA。但是,对比方法在高维空间中效率很低,所以更适合用非对比方法来训练它们。在 JEPA 的情况下,可以通过四个标准来完成,如下图所示:1. 最大化 s_x 关于 x 的信息量;2. 最大化 s_y 关于 y 的信息量;3. 使 s_y 容易从 s_x 中预测;4. 最小化用于预测潜在变量 z 的信息含量。

reason_reason是什么意思_reason是什么意思

下图是多级、多尺度下世界状态预测的可能架构。变量 x_0, x_1, x_2 表示一系列观察值。第一级网络表示为 JEPA-1,使用低级表征执行短期预测。第二级网络 JEPA-2 使用高级表征进行长期预测。研究者可以设想这种类型的架构有许多层,可能会使用卷积和其他模块,并使用级之间的时间池来粗粒度的表示和执行长期的预测。使用 JEPA 的任何非对比方法,可以进行 level-wise 或全局的训练。

reason是什么意思_reason是什么意思_reason

分层规划比较困难,几乎没有解决方案,大多数都需要预先定义动作的中间词汇。下图是不确定情况下的分层规划阶段:

reason_reason是什么意思_reason是什么意思

不确定情况下的分层规划阶段。

reason是什么意思_reason是什么意思_reason

迈向自主式 AI 系统的步骤都有哪些?LeCun 也给出了自己的想法:

1、自监督学习

学习世界的表征

学习世界的预测模型

2、处理预测中的不确定性

联合嵌入的预测架构

能量模型框架

3、从观察中学习世界模型

像动物和人类婴儿一样?

4、推理和规划

与基于梯度的学习兼容

没有符号,没有逻辑→向量和连续函数

其他的一些猜想包括:

reason_reason是什么意思_reason是什么意思

预测是智能的本质:学习世界的预测模型是常识的基础

几乎所有的东西都是通过自监督学习得来的:低层次的特征、空间、物体、物理学、抽象表征…;几乎没有什么是通过强化、监督或模仿学习的

推理 = 模拟 / 预测 + 目标的优化:在计算上比自回归生成更强大。

H-JEPA 与非对比性训练就是这样的:概率生成模型和对比方法是注定要失败的。

内在成本和架构驱动行为并决定学习的内容

情感是自主智能的必要条件:批评者或世界模型对结果的预期 + 内在的成本。

reason是什么意思_reason是什么意思_reason

———END———
限 时 特 惠: 本站每日持续更新海量各大内部创业教程,永久会员只需109元,全站资源免费下载 点击查看详情
站 长 微 信: nanadh666

声明:1、本内容转载于网络,版权归原作者所有!2、本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。3、本内容若侵犯到你的版权利益,请联系我们,会尽快给予删除处理!