学习|面向深度学习的五大神经网络模型及其应用


学习|面向深度学习的五大神经网络模型及其应用文章插图
神经网络是识别一组数据中潜在关系的一系列算法 。 这些算法很大程度上有赖于人脑的运作方式 。 神经网络可以适应不断变化的输入 , 生成最佳结果 , 无需重新设计输出标准 。 在某种程度上 , 这些神经网络类似生物神经元的系统 。
【学习|面向深度学习的五大神经网络模型及其应用】深度学习是机器学习的重要组成部分 , 深度学习算法基于神经网络 。 有几种功能不同的神经网络架构 , 最适合特定的应用场景 。 本文介绍一些最知名的架构 , 尤其是深度学习方面的架构 。
多层感知器
多层感知器(MLP)是一类前馈人工神经网络 。 感知器这个术语具体是指单个神经元模型 , 它是大型神经网络的前体 。
MLP包括节点的三个主要层:输入层、隐藏层和输出层 。 在隐藏层和输出层中 , 每个节点都被视为使用非线性激活函数的神经元 。 MLP使用一种称为反向传播的监督式学习技术进行训练 。 初始化神经网络时 , 为每个神经元设置权重 。 反向传播有助于调整神经元权重 , 以获得更接近预期的输出 。
对于涉及表格数据集、分类预测问题和回归预测问题的项目 , MLP最理想 。
卷积神经网络
卷积神经网络(CNN)模型处理具有网格图案(比如图像)的数据 。 它旨在自动学习特征的空间层次结构 。 CNN通常包括三种类型的层:卷积层、池化层和完全连接的层 。
卷积层和池化层执行特征提取任务 , 这些提取的特征由完全连接的层映射到最终输出中 。CNN最适合图像处理 。
图像识别、图像分类、对象检测和人脸识别是CNN的一些应用场景 。
递归神经网络
在递归神经网络(RNN)中 , 前一步的输出将作为输入被反馈回到当前步骤 。 RNN中的隐藏层实现这种反馈系统 。 该隐藏状态可以存储有关序列中之前步骤的一些信息 。
RNN中的“内存”可帮助模型记住已计算的所有信息 。 反过来 , 它使用这些同样的参数 , 以便每个输入生成输出 , 因而降低了参数的复杂性 。
RNN是使用最广泛的神经网络类型之一 , 主要是由于RNN具有更强的学习能力 , 而且能够执行诸如学习手写或语言识别之类的复杂任务 。 RNN适用的其他一些领域包括预测问题、机器翻译、视频标记、文本摘要 , 甚至音乐创作 。
深度信念网络
深度信念网络(DBN)使用概率和无监督学习来生成输出 。 DBN由二进制潜在变量、无向层和有向层组成 。 DBN有别于其他模型 , 原因是每一层都按顺序进行调节 , 每一层都学习整个输入 。
在DBN中 , 每个子网的隐藏层都是下一个的可见层 。 这种组合可以实现快速的逐层无监督训练过程:对比差异应用于每个子网 , 从最低可见层开始 。 贪婪的学习算法用于训练DBN 。 学习系统每次取一层 。 因此 , 每一层收到不同版本的数据 , 每一层都使用前一层的输出作为其输入 。
DBN主要应用于图像识别、视频识别和运动捕获数据 。
受限玻尔兹曼机
玻尔兹曼机(RBM)是一种生成式非确定性(随机)神经网络 , 可学习其输入集的概率分布 。 RBM是组成深度信念网络构建模块的浅度两层神经网络 。 RBM中的第一层名为可见层或输入层 , 第二层名为隐藏层 。 它由名为节点的类似神经元的单元组成;节点跨层相互连接 , 但不在同一层内 。
RBM通常用于降维、推荐系统和主题建模等应用场景 。 不过近年来 , 生成式对抗网络(GAN)在渐渐取代RBM 。