当前位置:首页 > 编程笔记 > 正文
已解决

第三章:人工智能深度学习教程-基础神经网络(第六节-ML深度学习层列表)

来自网友在路上 152852提问 提问时间:2023-11-09 08:50:44阅读次数: 52

最佳答案 问答题库528位专家为你答疑解惑

要指定所有层按顺序连接的神经网络的架构,请直接创建层数组。要指定层可以有多个输入或输出的网络架构,请使用 LayerGraph 对象。使用以下函数创建不同的图层类型。

输入层:

功能描述图像输入层
  • 将图像输入网络
  • 应用数据标准化
序列输入层
  • 将序列数据输入到网络。

可学习层:

功能描述卷积2d层
  • 对输入应用滑动过滤器。
  • 它通过沿输入垂直和水平移动滤波器并计算权重和输入的点积,然后添加偏差项来对输入进行卷积。
转置Conv2d层
  • 它对特征图进行上采样。
全连接层
  • 将输入乘以权重矩阵,然后添加偏差向量

  • 它是一个循环神经网络 (RNN) 层,支持网络中的时间序列和序列数据。
  • 它执行附加交互,这有助于改善训练期间长序列的梯度流。
  • 它们最适合学习长期依赖性

激活层:

功能描述重新定义层
  • 它对输入的每个元素执行阈值操作,其中任何小于零的值都设置为零。
LeakyRelu层
  • 它执行简单的阈值运算,其中任何小于零的输入值都乘以固定标量
剪裁Relu层
  • 它执行简单的阈值操作,其中任何小于零的输入值都设置为零。
  • 高于剪裁上限的任何值都将设置为该剪裁上限。

归一化层和 Dropout 层:

功能描述批量归一化层
  • 它标准化小批量中的每个输入通道。
  • 该层首先通过减去小批量平均值并除以小批量标准差来标准化每个通道的激活。
  • 然后,该层将输入移动可学习的偏移量,并按可学习的比例因子对其进行缩放。
  • 在卷积层和非线性层之间使用批量归一化层(例如 ReLU 层),可以加快卷积神经网络的训练速度并降低对网络初始化的敏感性。
跨通道标准化层
  • 它执行通道级标准化。
丢弃层
  • 它以给定的概率随机将输入元素设置为零。

池化层:

功能描述平均池化2d层
  • 它通过将输入划分为矩形池化区域并计算每个区域的平均值来执行下采样。
最大池化2d层
  • 它通过将输入划分为矩形池化区域并计算每个区域的最大值来执行下采样。
最大Unpooling2dLayer
  • 它取消最大池化层的输出。

组合层:

功能描述加法层
  • 它按元素添加多个输入。
  • 创建图层时指定图层的输入数量。
  • 输入的名称为“in1”、“in2”、...、“inN”,其中 N 是输入的数量。
  • 使用 connectLayers 或 disconnectLayers 将图层连接到其他图层或断开与其他图层的连接时,请使用输入名称。
  • 添加层的所有输入必须具有相同的维度。
深度串联层
  • 它需要具有相同高度和宽度的多个输入。
  • 它将它们沿着三维连接起来。

输出层:

功能描述软最大层
  • 它将 softmax 函数应用于输入。
分类层
  • 它保存软件用于训练网络进行多类分类的损失函数的名称
回归层
  • 它保存软件用于训练回归网络的损失函数的名称以及响应名称。
查看全文

99%的人还看了

猜你感兴趣

版权申明

本文"第三章:人工智能深度学习教程-基础神经网络(第六节-ML深度学习层列表)":http://eshow365.cn/6-36056-0.html 内容来自互联网,请自行判断内容的正确性。如有侵权请联系我们,立即删除!