网站标志
导航菜单
当前日期时间
当前时间:
购物车
购物车中有 0 件商品 去结算 我的订单
商品搜索
商品搜索:
文章正文
Yann LeCun:当人工智能系统不再需要监督学习时,下一场 AI 革命就来了
作者: 来源:新浪科技    发布于:2022-03-04 19:19:10    文字:【】【】【
图灵奖得主、MetaAI首席科学家YannLeCun近日在接受IEEESpectrum采访时表示,自监督学习可以用来构建元宇宙,甚至可能打造人类水平的AI。
  
  当YannLeCun发表演讲时,他经常会在幻灯片上展示一幅法国大革命时期的名画。画中的战争场景上写着一行字。“革命是不会被监督的。”
  
  Meta(前Facebook)副总裁兼首席人工智能科学家LeCun认为,当人工智能系统不再需要监督学习时,我们就会迎来下一场人工智能革命。它们用不着再依赖精心标记的数据集来提供真实来源,不需要靠这些数据集来理解世界并执行指派的任务。
  
  LeCun说,人工智能系统需要在尽可能减少来自人类的帮助的前提下,学习关于世界的知识。在发送给IEEESpectrum的一份电子邮件答疑中,他谈到了自监督学习如何能创造出富有常识、更强大的AI系统。
  
  2月23日,他在一个名为“实验室内部:用AI打造元宇宙”的虚拟MetaAI活动中探讨了这一主题。这场活动有来自马克·扎克伯格,Meta公司的一些人工智能科学家的演讲,以及LeCun和YoshuaBengio关于通向人类水平的人工智能之路的讨论。以下是LeCun在上述电子邮件中针对IEEESpectrum的几个问题给出的答案。
  
  IEEESpectrum:你曾说过,监督学习的局限性有时会被误认为是深度学习的天然局限。哪些限制可以通过自监督学习来克服?
  
  YannLeCun:监督学习在相对封闭的领域中效果很好,这种情况下你可以收集大量标记好的数据,而且在部署中遇到的输入类型与训练时使用的输入类型没有太大区别。
  
  自监督学习(SSL)让我们可以训练一个系统,以独立于任务的方式,学习各种输入的良好表征。因为SSL训练使用的是未标记的数据,所以我们可以用上非常大的训练集,让系统学习到更强大、更完整的输入表征。
  
  然后系统只需要少量标记数据就可以在任何有监督的任务上获得良好的性能表现。这大大减少了纯监督学习所需要的标记数据量,并让系统更加健壮、更擅长处理与标记的训练样本不一样的输入。它有时还能降低系统对数据中偏见的敏感性——关于这一改进,我们将在未来几周内公开的研究中分享我们的更多见解。
  
  IEEESpectrum:其他领军人物表示,人工智能的发展方向是通过更好的数据标记来改善监督学习。AndrewNg最近和我交流了以数据为中心的人工智能主题,Nvidia的RevLebaredian则谈到了自带所有标签的合成数据。那么AI领域对于未来发展方向这一主题是否存在分歧?
  
  IEEESpectrum:其他领军人物表示,人工智能的发展方向是通过更好的数据标记来改善监督学习。AndrewNg最近和我交流了以数据为中心的人工智能主题,Nvidia的RevLebaredian则谈到了自带所有标签的合成数据。那么AI领域对于未来发展方向这一主题是否存在分歧?
  
  早在2000年代中期,GeoffHinton、YoshuaBengio和我就都相信,我们想要训练非常大和非常深的神经网络,唯一方法是通过自监督(或无监督)学习。那时AndrewNg开始对深度学习产生了兴趣。他当时的工作也集中在我们现在称之为自监督的方法上。
  
  IEEESpectrum:自监督学习为什么能通向拥有常识的人工智能系统这一目标?常识能在多大程度上带我们走向人类水平的人工智能?
  
  LeCun:我认为,一旦我们搞清楚了如何才能让机器像人类和动物一样学习世界的运作方式,人工智能产业就会取得重大进展。
  
  人类和动物主要是通过观察世界和自身在世界中的行动来认识世界和学习知识的。我们理解世界是如何运作的,因为我们已经理解了世界的各种内在模型,使我们能够填补缺失的信息,预测将要发生的事情,并预测我们行动的效果。我们的世界模型让我们能够感知、解释、推理、提前计划和行动。
  
  那么机器该如何学习哪些世界模型呢?
  
  这可以归结为两个问题。我们应该用怎样的学习范式来训练世界模型?世界模型应该使用什么架构?对于第一个问题,我的答案是SSL。一个例子是让机器看一段视频,按下停止播放键,然后让机器学习一段表述,告诉机器视频中接下来会发生什么事情。在这样做的过程中,机器可能会学习大量关于世界是如何运作的背景知识,也许这很像是人类和动物的婴儿在生命的最初几周和几个月里的学习方式。
  
  对于第二个问题,我的答案是一种新型的深度宏观架构,我称之为分层联合嵌入预测架构(H-JEPA)。在这里详细解释的话内容就有点太长了,但我们想说的是,JEPA的目标不是要预测视频片段的未来帧,而是学习视频片段的抽象表示和片段的未来发展信息,这样系统有了对前者的理解基础,就能很容易预测后者。
  
  这一目标可以通过使用非对比性SSL方法的一些最新发展成果来实现,我和我的同事最近提出的一种名为VICReg(方差、不变性、协方差正则化)的方法就会有很大用途。
  
  IEEESpectrum:几周前,你回应了OpenAI的IlyaSutskever的一条推文,他推测今天的大型神经网络可能已经具备了一点意识。你的回答是一个响亮的“不”。在你看来,要想构建一个可以称得上具备意识的神经网络,需要哪些条件?那样的系统会是什么样子的?
  
  IEEESpectrum:几周前,你回应了OpenAI的IlyaSutskever的一条推文,他推测今天的大型神经网络可能已经具备了一点意识。你的回答是一个响亮的“不”。在你看来,要想构建一个可以称得上具备意识的神经网络,需要哪些条件?那样的系统会是什么样子的?
  
  LeCun:首先,意识是一个定义非常不明确的概念。一些哲学家、神经科学家和认知科学家认为它只是一种幻觉,我的看法也非常接近这种观点。
  
  但我对导致意识幻觉的原因有一个猜测。我的假设是,我们的前额叶皮层有一个单一的世界模型“引擎”。这个世界模型是可以根据手头的情况进行配置的。我们在一艘帆船上掌舵时,我们的世界模型会模拟空气和水在船上的流动场景。我们制造一张木桌时,我们的世界模型会想象切割木片和把它们组装起来的结果,等等。
  
  在我们的大脑中需要有一个模块,我称之为配置器,它会为我们设定各种目标和子目标,并配置世界模型以模拟手头的情况,还能激励我们的感知系统提取相关信息并抛弃其余信息。如果存在这样一个监督配置器,那可能就是给我们带来意识幻觉的原因所在。
  
  但有趣的是:我们之所以需要这个配置器,是因为我们只有一个单一的世界模型引擎。如果我们的大脑大到足以包含许多世界模型,我们就不需要意识了。因此,从这个意义上说,意识是我们大脑局限性的一个效果。
  
  IEEESpectrum:自监督学习将在元宇宙的构建过程中发挥什么作用?
  
  LeCun:深度学习在元宇宙有许多具体的应用,其中一些例子包括VR和AR眼镜的运动追踪、捕捉和重新合成身体运动和面部表情等。
  
  人工智能驱动的新一代创意工具会有很大的市场机遇,它们将让每个人都能在元宇宙中创造新的东西,在现实世界中也一样。但是,元宇宙还有一个“完全是AI的应用:虚拟AI助手。我们应该有虚拟的人工智能助手在日常生活中帮助我们,回答我们的任何问题,并帮助我们处理每天涌入的信息洪流。
  
  为此,我们需要这样的人工智能系统拥有对(物理或虚拟)世界如何运作的一些理解、推理和计划的能力,以及某种程度的常识。简而言之,我们需要弄清楚如何构建能够像人类一样学习的自主AI系统。这将需要很长的时间。但Meta在这一领域已经做好了长期作战的准备。
浏览 (23) | 评论 (0) | 评分(0) | 支持(0) | 反对(0) | 发布人: 来源:新浪科技
将本文加入收藏夹
新闻详情
脚注栏目
|
脚注信息
机电工程网(C) 2015-2020 All Rights Reserved.    联系我们