「埃尔法哥哥」自我监督学习是AI的未来


「埃尔法哥哥」自我监督学习是AI的未来
本文插图
尽管深度学习在人工智能领域做出了巨大贡献 , 但它还是有一个非常错误的地方:它需要大量数据 。 这是一两件事 , 无论开拓者和深度学习的评论家同意 。 实际上 , 由于有用数据的可用性有限以及处理该数据的计算能力不足 , 深度学习直到几年前才成为领先的AI技术 。
减少深度学习的数据依赖性目前是AI研究人员的首要任务之一 。
在AAAI会议上的主题演讲中 , 计算机科学家Yann LeCun讨论了当前深度学习技术的局限性 , 并提出了“自我监督学习”的蓝图 , 这是他解决深度学习数据问题的路线图 。 LeCun是深度学习的教父之一 , 也是卷积神经网络(CNN)的发明者 , 而CNN是在过去十年中引发人工智能革命的关键因素之一 。
自我监督学习是创建数据有效的人工智能系统的多项计划之一 。 在这一点上 , 很难预测哪种技术将成功引发下一次AI革命(或者如果我们最终将采用完全不同的策略) 。 但是 , 这是我们对LeCun总体规划的了解 。
澄清深度学习的局限性
首先 , LeCun阐明了通常被称为深度学习的局限性 , 实际上是监督学习的局限性 。 监督学习是需要注释训练数据的机器学习算法的类别 。 例如 , 如果要创建图像分类模型 , 则必须在已用其适当的类别标记的大量图像上进行训练 。
“ [深度学习]不是监督学习 。 不只是神经网络 。 基本上是通过将参数化的模块组装到计算图中来构建系统的想法 , ”勒昆在AAAI演讲中说 。 “您不直接对系统进行编程 。 您定义架构 , 然后调整这些参数 。 可能有数十亿 。 ”
LeCun补充说 , 深度学习可以应用于不同的学习范式 , 包括监督学习 , 强化学习以及无监督或自我监督学习 。
但是 , 围绕深度学习和监督学习的困惑并非没有道理 。 目前 , 已进入实际应用的大多数深度学习算法都基于监督学习模型 , 这充分说明了AI系统当前的缺点 。 我们每天使用的图像分类器 , 面部识别系统 , 语音识别系统以及许多其他AI应用程序已经在数百万个带有标签的示例中进行了训练 。
到目前为止 , 强化学习和无监督学习是学习算法的其他类别 , 其应用非常有限 。
深度学习今天站在哪里?
「埃尔法哥哥」自我监督学习是AI的未来
本文插图
有监督的深度学习为我们提供了许多非常有用的应用程序 , 尤其是在计算机视觉和自然语言处理的某些领域 。 深度学习在诸如癌症检测等敏感应用中扮演着越来越重要的角色 。 事实证明 , 在人类无法解决问题规模的领域中 , 它非常有用 , 例如 , 有些警告—审查每天在社交媒体上发布的大量内容 。
LeCun说:“如果您从Facebook , Instagram , YouTube等那里进行深入学习 , 这些公司就会崩溃 。 ” “它们完全围绕它构建 。 ”
但是如前所述 , 监督学习仅适用于有足够质量的数据并且数据可以捕获所有可能情况的情况 。 一旦受过训练的深度学习模型遇到不同于其训练示例的新颖示例 , 它们便开始以不可预测的方式表现 。 在某些情况下 , 从略微不同的角度显示对象可能足以使神经网络迷惑而误认为其他对象 。
「埃尔法哥哥」自我监督学习是AI的未来
本文插图
【「埃尔法哥哥」自我监督学习是AI的未来】
ImageNet与现实:在ImageNet(左列)中 , 对象放置整齐 , 处于理想的背景和光照条件下 。 在现实世界中 , 事情变得更加混乱(来源:objectnet.dev)
深度强化学习在游戏和模拟中显示出显著成果 。 在过去的几年中 , 强化学习已经征服了许多以前认为不能进入人工智能的游戏 。 人工智能程序已经淘汰了《星际争霸2》 , 《刀塔》和中国古代棋盘游戏《围棋》中的人类世界冠军 。