本页面提供了MATLAB中的深度学习层列表®。
要了解如何为不同的任务从层创建网络,请参见以下示例。
任务 | 学到更多 |
---|---|
创建用于图像分类或回归的深度学习网络。 | |
为序列和时间序列数据创建深度学习网络。 | |
为音频数据创建深度学习网络。 | 使用深度学习的言语命令识别 |
为文本数据创建深度学习网络。 |
使用以下函数创建不同的层类型。另外,使用深层网络设计师应用程序创建网络互动。
要了解如何定义自己的自定义图层,请参阅定义自定义深度学习层。
层 | 描述 |
---|---|
图像输入层将2-D图像输入到网络并应用数据归一化。 | |
3-D图像输入层将3-D图像或卷输入到网络并应用数据标准化。 | |
序列输入层将序列数据输入网络。 | |
|
ROI输入层将图像输入到快速R-CNN目标检测网络。 |
层 | 描述 |
---|---|
2-D卷积层将滑动卷积滤波器应用于输入。 | |
3-D卷积层将滑动立方体卷积滤波器应用于三维输入。 | |
二维分组卷积层将输入通道分组并应用滑动卷积滤波器。将分组卷积层用于信道可分离(也称为深度可分离)卷积。 | |
一个转置的2-D卷积层上采样特征图。 | |
转换的3-D卷积层上面是三维特征图。 | |
全连通层将输入乘以一个权值矩阵,然后添加一个偏置向量。 |
层 | 描述 |
---|---|
序列输入层将序列数据输入网络。 | |
LSTM层在时间序列和序列数据中的时间步骤之间学习长期依赖性。 | |
双向LSTM(BILSTM)层学习时间序列或序列数据的时间步长之间的双向长期依赖性。当您希望网络每次步骤中从完整的时间序列中学习时,这些依赖项可能是有用的。 | |
GRU层学习时间序列和序列数据的时间步骤之间的依赖性。 | |
序列折叠层将一批图像序列转换为一批图像。利用序列折叠层对图像序列的时间步长单独进行卷积运算。 | |
序列展开层在序列折叠后恢复输入数据的序列结构。 | |
扁平层将输入的空间维度折叠为通道维度。 | |
|
词嵌入层将词索引映射到向量。 |
层 | 描述 |
---|---|
Relu层对输入的每个元件执行阈值操作,其中小于零的任何值被设置为零。 | |
泄漏的Relu层执行阈值操作,其中任何输入值小于零的乘以固定标量。 | |
一个裁剪的ReLU层执行一个阈值操作,其中任何小于零的输入值被设置为零,任何高于剪裁天花板设置为剪切天花板。 | |
ELU激活层对正输入执行恒等运算,对负输入执行指数非线性运算。 | |
双曲线切线(TanH)激活层将Tanh函数应用于层输入上。 | |
|
PReLU层执行阈值操作,对于每个通道,任何小于零的输入值都乘以在训练时学到的标量。 |
层 | 描述 |
---|---|
批量归一化层将跨越批次的每个输入通道标准化。为了加速卷积神经网络的培训,降低网络初始化的敏感性,在卷积层和非线性之间使用批量归一化层,例如Relu层。 | |
信道级的本地响应(跨信道)规范化层执行信道级的规范化。 | |
dropout层以给定的概率将输入元素随机设置为零。 | |
二维作物层将二维作物应用于输入。 | |
3-D裁剪层将3-D体积作物为输入特征图的大小。 |
层 | 描述 |
---|---|
平均池化层通过将输入划分为矩形池化区域并计算每个区域的平均值来执行降采样。 | |
通过将三维输入划分为立方体池区域并计算每个区域的平均值来执行下行抽样。 | |
全局平均池化层通过计算输入的高度和宽度尺寸的平均值来执行缩小采样。 | |
3-D全局平均池化层通过计算输入的高度、宽度和深度维度的平均值来执行降采样。 | |
最大池化层通过将输入划分为矩形池化区域,并计算每个区域的最大值来执行降采样。 | |
三维最大池化层通过将三维输入划分为立方体池化区域,并计算每个区域的最大值来实现降采样。 | |
全局最大池化层通过计算输入的高度和宽度尺寸的最大值来执行降采样。 | |
通过计算输入的高度,宽度和深度尺寸的最大值,通过计算输入的最大值,执行3-D全局最大池池。 | |
最大反池层对最大池化层的输出进行反池。 |
层 | 描述 |
---|---|
添加层从多个神经网络层元素中添加输入。 | |
深度级联层接收具有相同高度和宽度的输入,并沿第三维(通道维)将它们级联。 | |
连接层接收输入并沿指定维度连接它们。输入必须在除连接维度外的所有维度上具有相同的大小。 | |
|
加权加法层缩放并从多个神经网络层元素中添加输入。 |
层 | 描述 |
---|---|
|
ROI输入层将图像输入到快速R-CNN目标检测网络。 |
|
ROI MAX池层输出输入特征图中每个矩形ROI的固定大小特征映射。使用此图层创建快速或更快的R-CNN对象检测网络。 |
|
锚箱层存储用于物体检测网络中使用的特征映射的锚盒。 |
|
区域建议层输出图像中潜在目标周围的边界框,作为Faster R-CNN内区域建议网络(RPN)的一部分。 |
|
SSD合并层合并特征映射的输出,用于后续的回归和分类损失计算。 |
|
区域提案网络(RPN)SoftMax层将SoftMax激活功能应用于输入。使用此图层创建更快的R-CNN对象检测网络。 |
|
焦损失层使用焦损失预测对象类别。 |
|
区域建议网络(RPN)分类层将图像区域分为两类目的或背景通过使用跨熵损失功能。使用此图层创建更快的R-CNN对象检测网络。 |
|
盒回归层通过使用平滑的L1损失函数来细化盒的边界位置。使用此图层创建快速或更快的R-CNN对象检测网络。 |
层 | 描述 |
---|---|
|
一个项目和重塑层以一个接一个的输入numlattentinputs. 数组,并将其转换为指定大小的图像。使用项目和重塑图层来重塑输入到gan的噪声。 |
|
嵌入和重塑层将分类元素的数值索引作为输入,并将其转换为指定大小的图像。使用嵌入和重塑层将分类数据输入条件gan。 |
层 | 描述 |
---|---|
softmax层对输入应用softmax函数。 | |
分类层计算互斥类的多级分类问题的跨熵损失。 | |
回归层计算回归问题的半均方误差损失。 | |
|
像素分类层为每个图像像素或体素提供分类标签。 |
|
骰子像素分类层使用广义骰子损耗为每个图像像素或体素提供分类标签。 |
|
焦损失层使用焦损失预测对象类别。 |
|
区域提案网络(RPN)SoftMax层将SoftMax激活功能应用于输入。使用此图层创建更快的R-CNN对象检测网络。 |
|
区域建议网络(RPN)分类层将图像区域分为两类目的或背景通过使用跨熵损失功能。使用此图层创建更快的R-CNN对象检测网络。 |
|
盒回归层通过使用平滑的L1损失函数来细化盒的边界位置。使用此图层创建快速或更快的R-CNN对象检测网络。 |
|
加权分类层计算分类问题的加权交叉熵损失。 |
|
特维斯基像素分类层使用特维斯基损耗为每个图像像素或体素提供分类标签。 |
|
分类SSE层计算分类问题的平方和误差损失。 |
|
回归MAE层计算回归问题的平均绝对误差损失。 |
深层网络设计师|trainNetwork
|trainingOptions