网络和层支持c++代码生成万博1manbetx

MATLAB®编码器™万博1manbetx支持序列和有向无环图(DAG)卷积神经网络(CNNs或ConvNets)的代码生成。您可以为任何经过训练的卷积神经网络生成代码,该网络的层支持代码生成。万博1manbetx看到万博1manbetx支持层

万博1manbetx支持Pretrained网络

以下是深度学习工具箱™中提供的预训练网络,支持用于代码生成。万博1manbetx

网络名称 描述 手臂®计算库 英特尔®MKL-DNN
AlexNet

卷积神经网络。有关预先训练的AlexNet模型,请参见alexnet

是的 是的
DarkNet darkne19和darkne53卷积神经网络。对于预先训练的暗网模型,请参见darknet19darknet53 是的 是的
densenet - 201

DenseNet-201卷积神经网络。对于预先训练的densen -201模型,请参见densenet201

是的 是的
GoogLeNet

GoogLeNet卷积神经网络。对于预先训练好的GoogLeNet模型,请参见googlenet

是的 是的
Inception-ResNet-v2

incep - resnet -v2卷积神经网络。对于预先训练的incep - resnet -v2模型,请参见inceptionresnetv2

是的 是的
Inception-v3 v3卷积神经网络。有关预先训练过的incepo -v3模型,请参见inceptionv3 是的 是的
MobileNet-v2

mobilena -v2卷积神经网络。对于预先训练的MobileNet-v2模型,请参见mobilenetv2

是的 是的
NASNet-Large

NASNet-Large卷积神经网络。对于预先训练好的NASNet-Large模型,请参见nasnetlarge

是的 是的
NASNet-Mobile

移动卷积神经网络。对于预先训练好的NASNet-Mobile模型,请参见nasnetmobile

是的 是的
ResNet

ResNet-18, ResNet-50,和ResNet-101卷积神经网络。对于预先训练好的ResNet模型,请参见resnet18,resnet50,resnet101

是的 是的
SegNet

多类像素分割网络。有关更多信息,请参见segnetLayers

没有 是的
SqueezeNet

小而深的神经网络。对于预先训练的SqeezeNet模型,请参见squeezenet

是的 是的
VGG-16

vgg16卷积神经网络。对于预先训练的VGG-16模型,请参见vgg16

是的 是的
VGG-19

VGG-19卷积神经网络。有关预先训练的vggg -19模型,请参阅vgg19

是的 是的
Xception

叠卷积神经网络。对于预先训练好的Xception模型,请参见xception

是的 是的

万博1manbetx支持层

以下层支持代码生成万博1manbetxMATLAB编码器用于表中指定的目标深度学习库。

安装支持包之后万博1manbetx用于深度学习的MATLAB编码器接口,你可以使用coder.getDeepLearningLayers查看特定深度学习库支持的层列表。万博1manbetx例如:

coder.getDeepLearningLayers (“mkldnn”)

层的名字 描述 臂计算库 英特尔MKL-DNN
additionLayer

添加层

是的 是的
anchorBoxLayer

锚箱层

是的 是的
averagePooling2dLayer

平均池层

是的 是的
batchNormalizationLayer

批归一化层

是的 是的
bilstmLayer 双向LSTM层 是的 没有
classificationLayer

创建分类输出层

是的 是的
clippedReluLayer

剪切整流线性单元(ReLU)层

是的 是的
concatenationLayer

连接层

是的 是的
convolution2dLayer

二维卷积层

是的

是的

crop2dLayer

对输入应用2d裁剪的层

是的 是的
CrossChannelNormalizationLayer

信道本地响应归一化层

是的 是的

自定义输出层

使用创建的所有输出层,包括自定义分类或回归输出层nnet.layer.ClassificationLayernnet.layer.RegressionLayer

有关如何定义自定义分类输出层和指定丢失函数的示例,请参见定义自定义分类输出层(深度学习工具箱)。

有关如何定义自定义回归输出层和指定损失函数的示例,请参见定义自定义回归输出层(深度学习工具箱)。

是的

是的

depthConcatenationLayer

深度连接层

是的

是的

dropoutLayer

辍学层

是的 是的
eluLayer

指数线性单位(ELU)层

是的 是的
fullyConnectedLayer

完全连接层

是的 是的
globalAveragePooling2dLayer

用于空间数据的全局平均池化层

是的

是的

globalMaxPooling2dLayer

二维全局最大池层

是的 是的

groupedConvolution2dLayer

二维分组卷积层

是的

  • 如果您指定一个整数numGroups,则该值必须小于或等于2

是的

imageInputLayer

图像输入层

  • 不支持代码生成万博1manbetx“归一化”使用函数句柄指定。

是的 是的
leakyReluLayer

漏整线性单元(ReLU)层

是的 是的
lstmLayer

长短期存储器(LSTM)层

是的 没有
maxPooling2dLayer

马克斯池层

是的 是的
maxUnpooling2dLayer

马克斯unpooling层

没有 是的
pixelClassificationLayer

创建用于语义分割的像素分类层

是的 是的
regressionLayer

创建一个回归输出层

是的 是的
reluLayer

直线单元(ReLU)层

是的 是的
sequenceInputLayer

序列输入层

是的 没有
softmaxLayer

Softmax层

是的

是的

ssdMergeLayer

SSD合并层用于对象检测

是的 是的

nnet.keras.layer.FlattenCStyleLayer

将激活扁平化为假设为c样式(行为主)的一维顺序

是的

是的

nnet.keras.layer.GlobalAveragePooling2dLayer

用于空间数据的全局平均池化层

是的

是的

nnet.keras.layer.SigmoidLayer

乙状结肠活化层

是的

是的

nnet.keras.layer.TanhLayer

双曲正切激活层

是的

是的

nnet.keras.layer.ZeroPadding2dLayer

零填充层为二维输入

是的

是的

nnet.onnx.layer.ElementwiseAffineLayer

层,执行按元素对输入进行缩放,然后进行添加

是的 是的

nnet.onnx.layer.FlattenLayer

ONNX网络的平层

是的

是的

nnet.onnx.layer.IdentityLayer

实现ONNX标识操作符的层

是的

是的

tanhLayer

双曲正切(tanh)层

是的

是的

transposedConv2dLayer

转置二维卷积层

代码生成不支持输入的不对称剪裁。万博1manbetx例如,指定一个向量[t b l r]“种植”参数来裁剪输入的顶部、底部、左侧和右侧不受支持。万博1manbetx

是的

是的

wordEmbeddingLayer

单词嵌入层将单词索引映射到向量

是的

没有

YOLOv2OutputLayer

输出层为YOLO v2对象检测网络

是的

是的

YOLOv2ReorgLayer

重组层用于YOLO v2对象检测网络

是的

是的

YOLOv2TransformLayer

转换层用于YOLO v2对象检测网络

是的

是的

万博1manbetx支持类

描述

臂计算库

英特尔MKL-DNN

yolov2ObjectDetector

  • 只有检测的方法yolov2ObjectDetector为代码万博1manbetx生成提供支持。

  • roi参数检测方法必须是代码生成常量(coder.const ())和一个1x4向量。

  • 只有阈值,SelectStrongest,MinSize,最大尺寸名称-值对的检测都受支持万博1manbetx。

  • 标签的输出检测作为字符向量的单元格数组返回,例如,{“汽车”,“巴士”}

是的

是的

ssdObjectDetector

对象来使用基于ssd的检测器检测对象。

  • 只有检测的方法ssdObjectDetector为代码万博1manbetx生成提供支持。

  • roi参数检测方法必须是一个codegen常数(coder.const ())和一个1x4向量。

  • 只有阈值,SelectStrongest,MinSize,最大尺寸,MiniBatchSize支持名称-值对。万博1manbetx所有的名称-值对必须是编译时常量。

  • 输入图像的通道和批大小必须是固定的大小。

  • 标签输出作为分类数组返回。

  • 在生成的代码中,输入被重新标定为网络输入层的大小。但是这个边界框检测方法返回的值参照原始输入大小。

是的

是的

另请参阅

相关的话题