人工智能正在快速发展,处于炒作曲线的顶端。它涉及开发计算机系统,深度学习使它们能够执行需要人类智能的任务。因此,我们需要了解深度学习的基础知识,因为它改变了我们生活的世界。
顶级深度学习算法有哪些?在讨论机器用来模仿人脑的顶级深度学习算法之前。我将涵盖以下主题:
- 深度学习简介
- 什么是神经网络?
- 深度学习算法的工作以及深度学习算法原理解析
- 要学习的顶级深度学习算法示例
- 结论
在深入研究各个领域的深度学习算法细节之前,我们必须了解什么是深度学习。因此,深度学习是人工智能领域的热门话题,它是机器学习的一个子领域,处理受人脑结构和功能启发的算法。它教会计算机从示例中学习,以便它们可以执行人类直观的任务。
什么是神经网络?在深度学习中,神经网络起着至关重要的作用。我们可以将它们定义为一组算法或数学处理单元,用于识别数据集中的相关关系。神经网络以人脑为模型,包括:
- 一个输入层,
- 多个隐藏层,
- 输出层
文章图片
深度学习算法的工作深度学习模仿人脑处理数据以解决复杂问题的能力。随着这些年来它变得越来越普遍,它的应用正在为广泛的行业提供动力。深度学习算法贯穿多层人工神经网络,并将简化的数据表示传递到下一层。在训练期间,他们使用输入分布中的未知元素来提取特征、对对象进行分组并发现有用的数据模式。例如,如果我们考虑一个非结构化的图像数据集,深度学习算法在通过每个神经网络时会逐渐了解每个图像。早期的神经网络层检测边缘等低级特征,后续层通过组合早期层的特征来提供更全面的图像表示。
要学习的顶级深度学习算法以下是你需要学习以解决复杂的现实世界问题的顶级深度学习算法列表。
- 多层感知器 ( MLP )
- 循环神经网络 ( RNN )
- 卷积层网络 ( CNN )
- 长短期记忆网络 ( LSTM )
- 受限玻尔兹曼机 ( RBM )
- 径向基函数网络 ( RBFNs )
- 自组织映射 ( SOM )
- 生成对抗网络 ( GAN )
- 深度信念网络 ( DBN )
- 自编码器
多层感知器 (MLP)MLP是最基本也是最古老的深度学习算法之一。它也被称为前馈神经网络的一种形式。我们来讨论 MLP 是如何工作的?
深度学习算法原理解析:MLP 工作
- MLP 的第一层接受输入,最后一层基于隐藏层产生输出。每个节点都连接到下一层的节点。MLP 之所以称为前馈网络,是因为信息在层之间不断前馈。
文章图片
- MLP 使用 sigmoid 函数(例如
ReLU
和tanh
作为激活函数)来确定要触发的节点。 - MLP 使用反向传播进行训练,这是一种流行的监督学习技术。
- 每个隐藏层都有一些随机分配的值,称为权重。具有权重组合的输入被提供给激活函数并传递到下一层用于输出确定。如果我们没有达到预期的(预期)输出,我们会计算损失并回溯以更新权重。继续该过程直到获得预期输出。
RNN 工作
- RNN 被称为多前馈神经网络,并且在互连节点之间具有有向循环。
- 它们是独一无二的,因为它们接受一系列没有大小限制的输入。
- 他们不仅依靠权重来确定输出,还依靠从先前输入中学到的信息。
- 他们使用内存来处理实现自动完成功能类型的下一个输入序列。
文章图片
深度学习算法示例:卷积层网络 (CNN)CNN是一种众所周知的深度学习算法,在对象检测和图像识别领域有很多应用。它也被称为ConvNets。让我们来讨论它是如何工作的。
文章图片
CNN 的三个基本构建块是:
- 卷积层- 它是 CNN 最重要的块,它使用一组过滤器,可以将其可视化为一层神经元。它们具有加权输入并根据输入大小提供输出。这些过滤器在应用于输入图像时会生成特征图。每个图像位置都会激活一个特定的神经元,并将输出收集在特征图中。
- 池化层——池化层执行下采样操作,减少特征图的大小。从卷积层获得的输出是一个巨大的网格阵列。因此,我们使用最大池化算法来减小此数组的大小,并仅保留数组中最重要的输入图块。
- 全连接层——当来自池化层的扁平矩阵作为输入馈送到全连接的神经网络时,即所有神经元都连接在一起时,就形成了这一层。CNN 最常用的激活函数是 ReLU。
长短期记忆网络 (LSTM)Long Short-Term Memory Network 是一种能够学习长期依赖的循环神经网络。网络由称为单元的不同内存块组成,如下图所示。
文章图片
细胞记住事物,对它们的改变是通过称为门的机制完成的。让我们讨论 LSTM 是如何工作的。
sigmoid
LSTM 中的层决定哪些信息应该保持完整,哪些应该从细胞状态中丢弃。- LSTM 用新的信息替换上面步骤中识别出的不相关信息。在
sigmoid
和tanh
发挥在识别过程中显著的作用。 - 细胞状态有助于确定最终输出。
受限玻尔兹曼机 (RBM)顶级深度学习算法有哪些?RBM 是最简单的深度学习算法,由具有两层的基本结构组成:
- 一个可见的输入层
- 隐藏层
让我们讨论 RBM 的工作原理。
- 输入
x
乘以每个隐藏节点的相应权重 w。 - 隐藏节点接收乘以各自权重和偏差值的输入。
- 激活函数将结果传递给输出层进行重构。
- RBM 将重建与原始输入进行比较以确定结果的质量。
文章图片
深度学习算法原理解析:RBFN 工作
- 在第一步中,RBFN 使用无监督学习算法(例如 k-means 聚类)确定隐藏层的中心。
- 在下一步中,它使用线性回归确定权重。均方误差 (MSE) 确定误差,并相应地调整权重以最小化 MSE。
文章图片
SOM 工作
- SOM 创建一维或二维地图并将相似的数据项组合在一起。
- 每个节点的权重都是随机初始化的,就像其他算法一样。
- 在每一阶段从输入数据集中随机抽取一个样本向量 x,并计算 x 与所有其他向量之间的距离。
- 在所有其他向量中投票后,选择最接近 x 的最佳匹配单元 (BMU)。
- 一旦确定了 BMU,权重向量就会更新。
- BMU 及其邻居在输入空间中靠近输入向量 x。我们重复这个过程,直到我们得到预期的结果。
文章图片
GAN 工作
生成对抗网络包含两个神经网络,如下所示:
- 生成器网络- 它是一种生成新示例的神经网络。
- 鉴别器网络- 它评估生成的示例并决定它们是否属于实际的训练数据集。
文章图片
如果你想从 GAN 的实际示例中学习,请查看我们使用深度学习生成图像的教程 。
深度信念网络 (DBN)当附加几个受限玻尔兹曼机 (RBM) 层时会生成 DBN。让我们看看网络是如何工作的。
深度学习算法原理解析:DBN 工作
- DBN 使用 Greedy 算法进行预训练。他们使用逐层方法学习所有生成权重和自上而下的方法。
- Gibbs 采样的一些步骤在网络的顶部两个隐藏层上运行。
- 为了从可见单元中获取样本,我们在模型的其余部分使用单次祖先采样。
- 在下一步中,潜在变量值的学习可以通过一次自下而上的传递来结束。
文章图片
自编码器工作
自编码器的三个主要组件是:
- 编码器- 用于将输入压缩为潜在空间表示,稍后可以重建该表示以获得原始输入。
- 代码- 它是潜在空间表示,即编码后获得的压缩部分。
- 解码器- 用于将代码重构为其原始形式。
文章图片
谢谢阅读!
推荐阅读
- 如何自定义TailwindCSS美化网站提供独特的外观()
- 如何使用LSTM预测比特币的价格(分步指南)
- 在JavaScript中执行HTTP请求的5种方法
- win7系统官方原版64位旗舰版自制步骤
- 雨林木风Ghost win7系统64位免费自制步骤
- 本文教你Ghost win732位系统旗舰版如何运用4g内存
- 本文教你深度技术Ghost win7 32位旗舰版无法运用4g内存的原理
- 小马激活Ghost win7系统64位旗舰版工具下载
- 原版win7 64位纯净版iso镜像系统下载