主要内容

万博1manbetx支持的网络和层

万博1manbetx支持Pretrained网络

GPU编码器™支持为系万博1manbetx列和有向无环图(DAG)卷积神经网络(CNNs或ConvNets)生成代码。您可以为任何经过训练的卷积神经网络生成代码,它的层支持代码生成。万博1manbetx看到万博1manbetx支持层。您可以使用Deep Learning Toolbox™在CPU、GPU或多个GPU上训练卷积神经网络,也可以使用表中列出的预训练网络之一生成CUDA®代码。

网络名称 描述 cuDNN TensorRT 手臂®马里GPU的计算库

AlexNet

AlexNet卷积神经网络。关于预先训练的AlexNet模型,见AlexNet.(深度学习工具箱)

的语法alexnet(“重量”、“没有”)代码生成不支持万博1manbetx。

是的

是的

是的

咖啡网络

Caffe的卷积神经网络模型。从Caffe导入掠夺网络,请参阅importCaffeNetwork(深度学习工具箱)

是的

是的

是的

Darknet-19

Darknet-19卷积神经网络。有关更多信息,请参见darknet19(深度学习工具箱)

的语法Darknet19('权重','none')代码生成不支持万博1manbetx。

是的

是的

是的

Darknet-53

Darknet-53卷积神经网络。有关更多信息,请参见darknet53(深度学习工具箱)

的语法Darknet53('权重','none')代码生成不支持万博1manbetx。

是的

是的

是的

DeepLab v3 +

DeepLab v3+卷积神经网络。有关更多信息,请参见deeplabv3plusLayers(计算机视觉工具箱)

是的

是的

没有

densenet - 201

DenseNet-201卷积神经网络。预训练的DenseNet-201模型见densenet201(深度学习工具箱)

的语法densenet201(“重量”、“没有”)代码生成不支持万博1manbetx。

是的

是的

是的

高效 - B0

EfficientNet-b0卷积神经网络。预训练的EfficientNet-b0模型见efficientnetb0(深度学习工具箱)

的语法efficientnetb0(“重量”、“没有”)代码生成不支持万博1manbetx。

是的 是的 是的

GoogLeNet

谷歌网卷积神经网络。有关预训练的googleet模型,请参阅googlenet(深度学习工具箱)

的语法googlenet(“重量”、“没有”)代码生成不支持万博1manbetx。

是的

是的

是的

Inception-ResNet-v2

Inception-ResNet-v2卷积神经网络。有关预训练的Inception-ResNet-v2模型,请参见inceptionresnetv2(深度学习工具箱)

是的

是的

没有

Inception-v3

Inception-v3卷积神经网络。对于预先训练的Inception-v3模型,请参见inceptionv3(深度学习工具箱)

的语法Inceptionv3('权重','none')代码生成不支持万博1manbetx。

是的

是的

是的

Mobilenet-v2

MobileNet-v2卷积神经网络。有关预先训练的MobileNet-v2模型,请参见mobilenetv2(深度学习工具箱)

的语法mobilenetv2(“重量”、“没有”)代码生成不支持万博1manbetx。

是的

是的

是的

NASNet-Large

大型卷积神经网络。有关预先训练的NASNet-Large模型,请参阅nasnetlarge(深度学习工具箱)

是的

是的

没有

NASNET-MOBILE.

移动卷积神经网络。有关预先训练的NASNet-Mobile模型,请参阅nasnetmobile(深度学习工具箱)

是的

是的

没有

ResNet

ResNet-18, ResNet-50和ResNet-101卷积神经网络。有关预训练的ResNet模型,请参阅resnet50(深度学习工具箱),resnet18(深度学习工具箱),resnet101(深度学习工具箱)

的语法resnetXX(“重量”、“没有”)代码生成不支持万博1manbetx。

是的

是的

是的

SegNet

多类像素分割网络。有关更多信息,请参见segnetLayers(计算机视觉工具箱)

是的

是的

没有

SqueezeNet

小深度神经网络。关于预训练的挤压模型,请参阅squeezenet(深度学习工具箱)

的语法squeezenet(“重量”、“没有”)代码生成不支持万博1manbetx。

是的

是的

是的

VGG-16

VGG-16卷积神经网络。预训练的VGG-16模型见vgg16(深度学习工具箱)

的语法vgg16(“重量”、“没有”)代码生成不支持万博1manbetx。

是的

是的

是的

VGG-19

VGG-19卷积神经网络。预训练的vg -19模型见vgg19(深度学习工具箱)

的语法vgg19(“重量”、“没有”)代码生成不支持万博1manbetx。

是的

是的

是的

Xception

七卷大神经网络。对于预训练Xcepion模型,请参阅xception(深度学习工具箱)

的语法xception(“重量”、“没有”)代码生成不支持万博1manbetx。

是的

是的

是的

YOLO v2.

你只看一次版本2基于卷积神经网络的对象检测器。有关更多信息,请参见yolov2Layers(计算机视觉工具箱)

是的

是的

是的

万博1manbetx支持层

GPU编码器的代码生成支持以下层,用于表中指定的目万博1manbetx标深度学习库。

输入图层

层的名字 描述 cuDNN TensorRT Mali GPU的ARM计算库

imageInputLayer(深度学习工具箱)

图像输入层将二维图像输入到网络并应用数据归一化。

代码生成不支持万博1manbetx“归一化”使用函数句柄指定。

是的

是的

是的

sequenceInputLayer(深度学习工具箱)

序列输入层将序列数据输入到网络。

cuDNN库支持向量和二维图像序列。万博1manbetxTensorRT库只支持向量输入序列。万博1manbetx

对于向量序列输入,在代码生成过程中,特征的数量必须是一个常量。

对于图像序列输入,高度、宽度和通道数量在代码生成过程中必须是一个常量。

代码生成不支持万博1manbetx“归一化”使用函数句柄指定。

是的

是的

没有

卷积层和完全连通层

层的名字 描述 cuDNN TensorRT Mali GPU的ARM计算库

convolution2dLayer(深度学习工具箱)

二维卷积层对输入应用滑动卷积滤波器。

是的

是的

是的

fullyConnectedLayer(深度学习工具箱)

完全连接的层将输入乘以权重矩阵,然后添加偏置向量。

是的

是的

没有

groupedConvolution2dLayer(深度学习工具箱)

2-D分组的卷积层将输入通道分成组并应用滑动卷积滤波器。使用分组的卷积层,用于通道 - 明智的可分离(也称为深度明智的可分离)卷积。

2-D分组的卷积层不支持ARM Mali GPU的代码生成万博1manbetxNumGroups属性设置为“channel-wise”或大于2的值。

是的

是的

是的

transposedConv2dLayer(深度学习工具箱)

一个转置的二维卷积层对特征地图进行采样。

是的

是的

是的

序列层

层的名字 描述 cuDNN TensorRT Mali GPU的ARM计算库

bilstmLayer(深度学习工具箱)

双向LSTM (BiLSTM)层学习时间序列或序列数据的时间步长之间的双向依赖关系。当您希望网络在每个时间步都从完整的时间序列中学习时,这些依赖关系可能非常有用。

用于代码生成,StateActivationFunction属性必须设置为的双曲正切

用于代码生成,GateActivationFunction属性必须设置为“乙状结肠”

是的

是的

没有

flattenLayer(深度学习工具箱)

平坦层将输入的空间维度折叠为通道维度。

是的

没有

没有

gruLayer(深度学习工具箱)

GRU层学习时间序列和序列数据中时间步长之间的依赖关系。

代码生成只支持万博1manbetx“after-multiplication”“recurrent-bias-after-multiplication”重置门模式。

是的

是的

没有

lstmLayer(深度学习工具箱)

LSTM层学习时间序列和序列数据中时间步长的依赖关系。

用于代码生成,StateActivationFunction属性必须设置为的双曲正切

用于代码生成,GateActivationFunction属性必须设置为“乙状结肠”

是的

是的

没有

sequenceFoldingLayer(深度学习工具箱)

序列折叠层将一批图像序列转换为一批图像。使用序列折叠层对图像序列的时间步分别进行卷积运算。

是的

没有

没有

sequenceInputLayer(深度学习工具箱)

序列输入层将序列数据输入到网络。

cuDNN库支持向量和二维图像序列。万博1manbetxTensorRT库只支持向量输入序列。万博1manbetx

对于向量序列输入,在代码生成过程中,特征的数量必须是一个常量。

对于图像序列输入,高度、宽度和通道数量在代码生成过程中必须是一个常量。

代码生成不支持万博1manbetx“归一化”使用函数句柄指定。

是的

是的

没有

sequenceUnfoldingLayer(深度学习工具箱)

序列展开层在序列折叠后恢复输入数据的序列结构。

是的

没有

没有

wordEmbeddingLayer(文本分析工具箱)

词嵌入层将词索引映射到向量。

是的

是的

没有

激活层

层的名字 描述 cuDNN TensorRT Mali GPU的ARM计算库

clippedReluLayer(深度学习工具箱)

剪切的ReLU层执行一个阈值操作,其中小于0的输入值被设置为0,大于0的输入值被设置为0剪裁天花板都被设定为上限。

是的

是的

是的

eluLayer(深度学习工具箱)

ELU激活层在正输入上执行恒等运算,在负输入上执行指数非线性。

是的

是的

没有

leakyReluLayer(深度学习工具箱)

泄漏的ReLU层执行阈值操作,其中任何小于零的输入值乘以一个固定的标量。

是的

是的

是的

reluLayer(深度学习工具箱)

ReLU层对输入的每个元素执行一个阈值操作,其中任何小于0的值都被设置为0。

是的

是的

是的

softplusLayer(强化学习工具箱)

一个softpluslayer.是一个实现SOFTPLUS激活的深度神经网络层Y= log(1 + eX),确保输出总是正的

是的

是的

没有

tanhLayer(深度学习工具箱)

双曲正切(tanh)激活层对层输入应用tanh函数。

是的

是的

是的

正规化、删除和裁剪层

层的名字 描述 cuDNN TensorRT Mali GPU的ARM计算库

batchNormalizationLayer(深度学习工具箱)

批规范化层对跨小批的每个输入通道进行规范化。

是的

是的

是的

crop2dLayer(深度学习工具箱)

2-D裁剪层将2-D裁剪应用于输入。

是的

是的

是的

crossChannelNormalizationLayer(深度学习工具箱)

信道方面的局部响应(跨信道)规范化层执行信道方面的规范化。

是的

是的

是的

dropoutLayer(深度学习工具箱)

dropout层以给定的概率将输入元素随机设置为零。

是的

是的

是的

scalingLayer(强化学习工具箱)

演员或批评网络的缩放层。

的值,用于代码生成“规模”“偏见”属性必须具有相同的维度。

是的

是的

是的

池化层和非池化层

层的名字 描述 cuDNN TensorRT Mali GPU的ARM计算库

普通Pooling2dlayer.(深度学习工具箱)

平均池化层通过将输入分割成矩形池化区域并计算每个区域的平均值来执行下采样。

是的

是的

是的

globalAveragePooling2dLayer(深度学习工具箱)

一个全局平均池化层通过计算输入的高度和宽度尺寸的平均值来执行下采样。

是的

是的

是的

globalMaxPooling2dLayer(深度学习工具箱)

一个全局最大池化层通过计算输入的最大高度和宽度尺寸来执行下采样。

是的

是的

是的

maxPooling2dLayer(深度学习工具箱)

最大池化层通过将输入分割成矩形池化区域,并计算每个区域的最大值来进行下采样。

是的

是的

是的

maxUnpooling2dLayer(深度学习工具箱)

最大的取消池层取消最大池层的输出池。

是的

是的

没有

结合层

层的名字 描述 cuDNN TensorRT Mali GPU的ARM计算库

additionLayer(深度学习工具箱)

添加层以元素方式添加来自多个神经网络层的输入。

是的

是的

是的

concatenationLayer(深度学习工具箱)

连接层接受输入,并沿着指定的维度连接输入。

是的

是的

没有

depthConcatenationLayer(深度学习工具箱)

深度连接层接受具有相同高度和宽度的输入,并沿着第三维(通道维)将它们连接起来。

是的

是的

是的

对象检测层

层的名字 描述 cuDNN TensorRT Mali GPU的ARM计算库

anchorBoxLayer(计算机视觉工具箱)

锚盒层存储用于目标检测网络中的特征图的锚盒。

是的

是的

是的

focalLossLayer(计算机视觉工具箱)

焦点损耗层使用焦点损耗预测对象类。

是的

是的

是的

spaceToDepthLayer(计算机视觉工具箱)

空间到深度层将输入的空间块排列到深度维度中。当你需要组合不同大小的特征图而不丢弃任何特征数据时,使用这一层。

是的

是的

是的

ssdMergeLayer(计算机视觉工具箱)

SSD合并层将特征映射的输出进行合并,用于后续的回归和分类损失计算。

是的

是的

没有

rcnnBoxRegressionLayer(计算机视觉工具箱)

盒回归层使用平滑的L1损失函数来细化盒的边界位置。使用这一层来创建一个更快的R-CNN对象检测网络。

是的

是的

是的

rpnClassificationLayer(计算机视觉工具箱)

区域建议网络(RPN)分类层将图像区域划分为这两种类型对象背景利用交叉熵损失函数。使用这一层创建一个更快的R-CNN对象检测网络。

是的

是的

是的

Yolov2OutputLayer.(计算机视觉工具箱)

为YOLO v2对象检测网络创建输出层。

是的

是的

是的

YOLOv2ReorgLayer(计算机视觉工具箱)

为YOLO v2对象检测网络创建重组层。

是的

是的

是的

YOLOV2TRANSFORMLAYER.(计算机视觉工具箱)

创建YOLO v2对象检测网络的转换层。

是的

是的

是的

输出层

层的名字 描述 cuDNN TensorRT Mali GPU的ARM计算库

classificationLayer(深度学习工具箱)

分类层用于计算具有互斥类的多类分类问题的交叉熵损失。

是的

是的

是的

dicePixelClassificationLayer(计算机视觉工具箱)

骰子像素分类层使用广义骰子损耗为每个图像像素或体素提供分类标签。

是的

是的

是的

focalLossLayer(计算机视觉工具箱)

焦点损耗层使用焦点损耗预测对象类。

是的

是的

是的

输出层(深度学习工具箱)

所有输出层,包括使用创建的自定义分类或回归输出层nnet.layer.ClassificationLayernnet.layer.RegressionLayer

有关用于定义自定义分类输出层并指定丢失功能的示例,请参阅定义自定义分类输出层(深度学习工具箱)

有关展示如何定义自定义回归输出层并指定丢失功能的示例,请参阅定义自定义回归输出层(深度学习工具箱)

是的

是的

是的

pixelClassificationLayer(计算机视觉工具箱)

像素分类层为每个图像像素或体素提供分类标签。

是的

是的

是的

rcnnBoxRegressionLayer(计算机视觉工具箱)

盒回归层使用平滑的L1损失函数来细化盒的边界位置。使用这一层来创建一个更快的R-CNN对象检测网络。

是的

是的

是的

regressionLayer(深度学习工具箱)

回归层计算回归问题的半平均误差损失。

是的

是的

是的

rpnClassificationLayer(计算机视觉工具箱)

区域建议网络(RPN)分类层将图像区域划分为这两种类型对象背景利用交叉熵损失函数。使用这一层创建一个更快的R-CNN对象检测网络。

是的

是的

是的

sigmoidLayer(深度学习工具箱)

一个sigmoid层应用一个sigmoid函数到输入。

是的

是的

是的

softmaxLayer(深度学习工具箱)

softmax层对输入应用softmax功能。

是的

是的

是的

Keras和ONNX层

层的名字 描述 cuDNN TensorRT Mali GPU的ARM计算库

nnet.keras.layer.FlattenCStyleLayer(深度学习工具箱)

按c风格(主要行)顺序将激活简化为1-D。

是的

是的

是的

nnet.keras.layer.GlobalAveragePooling2dLayer(深度学习工具箱)

空间数据的全球平均汇集层。

是的

是的

是的

nnet.keras.layer.SigmoidLayer(深度学习工具箱)

乙状结肠活化层。

是的

是的

是的

nnet.keras.layer.TanhLayer(深度学习工具箱)

双曲正切激活层。

是的

是的

是的

nnet.keras.layer.ZeroPadding2dLayer(深度学习工具箱)

零填充层为二维输入。

是的

是的

是的

nnet.onnx.layer.ElementwiseAffineLayer(深度学习工具箱)

一层,执行按元素顺序缩放输入,然后添加。

是的

是的

是的

nnet.onnx.layer.flattenlayer.(深度学习工具箱)

使输入张量的空间维数平坦于通道维数。

是的

是的

是的

nnet.onnx.layer.IdentityLayer(深度学习工具箱)

实现ONNX标识操作符的层。

是的

是的

是的

自定义图层

层的名字 描述 cuDNN TensorRT Mali GPU的ARM计算库

自定义图层

自定义图层,有或没有学习参数,您为您的问题定义。

要了解如何定义自定义深度学习层,请参见定义自定义深度学习层(深度学习工具箱)为代码生成定义自定义深度学习层(深度学习工具箱)

有关如何为具有自定义层的网络生成代码的示例,请参见使用YOLO v3深度学习进行目标检测的代码生成

自定义层的输出必须是固定大小的数组。

使用“统一”随着mallocmode.coder.gpuConfig需要额外的内存拷贝导致性能变慢。对于自定义层,建议使用“离散”模式。有关GPU内存分配的更多信息,请参见离散和管理模式

cuDNN目标支持自定义层的万博1manbetx行主代码和列主代码生成。TensorRT目标只支持以列为主万博1manbetx的代码生成。

不支持包含自定义层和LSTM或GRU层的序列网络的代码生成。万博1manbetx

Simulink不支持带有自定义层的深度学习网络的代码生成万博1manbetx万博1manbetx®

是的

是的

没有

万博1manbetx支持类

GPU编码器的代码生成支持以下类,用于表中指定的目标万博1manbetx深度学习库。

的名字 描述 cuDNN TensorRT Mali GPU的ARM计算库
DAGNetwork(深度学习工具箱)

用于深度学习的有向无环图(DAG)网络

  • 只有激活,预测,分类支持方法。万博1manbetx

是的

是的

是的

SeriesNetwork(深度学习工具箱)

深度学习系列网络

  • 只有激活,分类,预测,predictAndUpdateState,重置静止支持对象函数。万博1manbetx

是的

是的

是的

ssdObjectDetector(计算机视觉工具箱)

Object通过ssd检测器检测对象。

  • 只有检测(计算机视觉工具箱)的方法ssdObjectDetector支持代万博1manbetx码生成。

  • roi参数检测方法必须是代码根常数(coder.const ())和1x4矢量。

  • 只有阈值,SelectStrongest,inssize,最大尺寸,MiniBatchSize支持名称-值对。万博1manbetx所有名称-值对都必须是编译时常量。

  • 输入图像的通道和批大小必须是固定的大小。

  • 标签输出以分类数组的形式返回。

  • 在生成的代码中,输入被重新调整为网络输入层的大小。但是这个边界框检测方法返回的是引用的原始输入大小。

  • 边界框可能不会与模拟结果进行数值匹配。

是的

是的

没有

yolov2ObjectDetector(计算机视觉工具箱)

使用YOLO v2对象检测器检测对象

  • 只有检测(计算机视觉工具箱)的方法yolov2ObjectDetector支持代万博1manbetx码生成。

  • roi参数检测方法必须是代码根常数(coder.const ())和1x4矢量。

  • 只有阈值,SelectStrongest,inssize,最大尺寸,MiniBatchSize支持名称-值对。万博1manbetx

  • 输入图像的高度、宽度、通道和批大小必须是固定大小。

  • 通过检测方法的最小批大小值必须是固定大小。

  • 标签输出作为字符向量的单元格数组返回,例如{'car','bus'}。

是的

是的

是的

另请参阅

功能

对象

相关的话题