支持c++代码生成的网络和层万博1manbetx

MATLAB®编码器™万博1manbetx支持序列和有向无环图(DAG)卷积神经网络(CNNs或ConvNets)的代码生成。您可以为任何经过训练的卷积神经网络生成代码,它的层支持代码生成。万博1manbetx看到万博1manbetx支持图层

万博1manbetx支持Pretrained网络

以下在深度学习工具箱™中提供的预先训练的网络可用于代码生成。万博1manbetx

网络名称 描述 手臂®计算库 英特尔®MKL-DNN
AlexNet

AlexNet卷积神经网络。对于预先训练的AlexNet模型,请参见alexnet

是的 是的
DarkNet DarkNet-19和DarkNet-53卷积神经网络。对于预先训练的暗网模型,请看darknet19darknet53 是的 是的
densenet - 201

DenseNet-201卷积神经网络。对于预训练的DenseNet-201模型,参见densenet201

是的 是的
GoogLeNet

GoogLeNet卷积神经网络。对于预先训练的GoogLeNet模型,参见googlenet

是的 是的
Inception-ResNet-v2

成立之初,RESNET-V2卷积神经网络。对于预训练的盗梦空间,RESNET-V2型号,请参阅inceptionresnetv2

是的 是的
盗梦空间-V3 盗梦空间-V3卷积神经网络。对于预训练盗-V3型号,请参阅inceptionv3 是的 是的
MobileNet-v2

MobileNet-V2卷积神经网络。对于预训练MobileNet-V2型号,请参阅mobilenetv2

是的 是的
NASNet,大

NASNet-大卷积神经网络。对于预训练NASNet-Large模式,见nasnetlarge

是的 是的
NASNet-Mobile的

NASNet-Mobile卷积神经网络。对于预训练过的NASNet-Mobile模型,请参见nasnetmobile

是的 是的
RESNET

RESNET-18,RESNET-50,和RESNET-101卷积神经网络。对于预训练RESNET车型,看看resnet18,resnet50resnet101

是的 是的
SegNet

多级的基于像素的分割网络。欲了解更多信息,请参阅segnetLayers

没有 是的
SqueezeNet

小,深层神经网络。对于预训练SqeezeNet车型,看看squeezenet

是的 是的
VGG-16

VGG-16卷积神经网络。对于预训练VGG-16型号,请参阅vgg16

是的 是的
VGG-19

VGG-19卷积神经网络。对于预训练VGG-19型号,请参阅vgg19

是的 是的
Xception

Xception卷积神经网络。对于预训练Xception型号,请参阅xception

是的 是的

万博1manbetx支持图层

以下层支持代码生成万博1manbetxMATLAB编码器针对表中指定的目标深度学习库。

一旦你安装了支持包万博1manbetxMATLAB编码器接口,用于深度学习库,你可以使用coder.getDeepLearningLayers查看特定深度学习库支持的层的列表。万博1manbetx例如:

coder.getDeepLearningLayers (“mkldnn”)

层的名字 描述 臂计算库 英特尔MKL-DNN
additionLayer

添加层

是的 是的
anchorBoxLayer

锚箱层

是的 是的
averagePooling2dLayer

平均汇聚层

是的 是的
batchNormalizationLayer

批归一化层

是的 是的
bilstmLayer 双向LSTM层 是的 没有
classificationLayer

创建分类输出层

是的 是的
clippedReluLayer

剪切整流线性单元(ReLU)层

是的 是的
concatenationLayer

级联层

是的 是的
convolution2dLayer

二维卷积层

是的

是的

crop2dLayer

层,应用2-D裁剪到输入

是的 是的
CrossChannelNormalizationLayer

信道局部响应归一化层

是的 是的

自定义输出层

所有输出层,其包括通过使用创建的自定义分类或回归输出层nnet.layer.ClassificationLayer要么nnet.layer.RegressionLayer

为示出了如何定义自定义分类输出层,并指定一个损失函数的例子,请参见定义自定义分类输出层(深学习工具箱)。

为示出了如何定义自定义回归输出层,并指定一个损失函数的例子,请参见定义自定义回归输出层(深学习工具箱)。

是的

是的

depthConcatenationLayer

深度连接层

是的

是的

dropoutLayer

辍学层

是的 是的
eluLayer

指数线性单元(ELU)层

是的 是的
fullyConnectedLayer

完全连接层

是的 是的
globalAveragePooling2dLayer

对空间数据全球平均池层

是的

是的

globalMaxPooling2dLayer

2-d全局最大池层

是的 是的

groupedConvolution2dLayer

2-d分组卷积层

是的

  • 如果指定一个整数numGroups,则该值必须小于或等于2

是的

imageInputLayer

图像输入层

  • 代码生成不支持万博1manbetx'正常化'使用函数句柄指定。

是的 是的
leakyReluLayer

漏电整流线性单元(ReLU)层

是的 是的
lstmLayer

长短期记忆(LSTM)层

是的 没有
maxPooling2dLayer

马克斯池层

是的 是的
maxUnpooling2dLayer

最大unpooling层

没有 是的
pixelClassificationLayer

为语义分割创建像素分类层

是的 是的
regressionLayer

创建一个回归输出层

是的 是的
reluLayer

整流线性单元(ReLU)层

是的 是的
sequenceInputLayer

序列输入层

是的 没有
softmaxLayer

SOFTMAX层

是的

是的

ssdMergeLayer

用于对象检测的SSD合并层

是的 是的

nnet.keras.layer.FlattenCStyleLayer

平展激活成1-d假设C风格(行主)为了

是的

是的

nnet.keras.layer.GlobalAveragePooling2dLayer

对空间数据全球平均池层

是的

是的

nnet.keras.layer.SigmoidLayer

乙状结肠激活层

是的

是的

nnet.keras.layer.TanhLayer

双曲正切激活层

是的

是的

nnet.keras.layer.ZeroPadding2dLayer

2-D输入的零填充层

是的

是的

nnet.onnx.layer.ElementwiseAffineLayer

层,该层对输入执行元素级伸缩,然后执行加法

是的 是的

nnet.onnx.layer.FlattenLayer

ONNX™网络的平坦层

是的

是的

nnet.onnx.layer.IdentityLayer

层实现ONNX身份操作

是的

是的

tanhLayer

双曲正切(双曲正切)层

是的

是的

transposedConv2dLayer

转置二维卷积层

代码生成不支持输入的不对称裁剪。万博1manbetx例如,指定一个矢量[T B L R]为了“裁剪”参数裁剪上,下,左,右输入的不支持。万博1manbetx

是的

是的

wordEmbeddingLayer

一个字埋入层映射字索引到矢量

是的

没有

YOLOv2OutputLayer

对于YOLO v2的物体检测网络输出层

是的

是的

YOLOv2ReorgLayer

YOLO v2对象检测网络的重组层

是的

是的

YOLOv2TransformLayer

用于YOLO v2对象检测网络的变换层

是的

是的

万博1manbetx支持的类

描述

臂计算库

英特尔MKL-DNN

yolov2ObjectDetector

  • 只有检测的方法yolov2ObjectDetector支持代万博1manbetx码生成。

  • 投资回报率参数检测方法必须是一个代码生成常数(coder.const ())和1×4载体中。

  • 只有,SelectStrongest,MINSIZE最大尺寸名称-值对的检测都受支持万博1manbetx。

  • 标签的输出检测作为字符向量的单元数组返回,例如,{“汽车”,“巴士”}

是的

是的

ssdObjectDetector

对象使用基于ssd的检测器检测对象。

  • 只有检测的方法ssdObjectDetector支持代万博1manbetx码生成。

  • 投资回报率参数检测方法必须是一个codegen常数(coder.const ())和1×4载体中。

  • 只有,SelectStrongest,MINSIZE,最大尺寸MiniBatchSize名称 - 值对的支持。万博1manbetx所有名称 - 值对必须是编译时间常数。

  • 输入图像的通道和批大小必须是固定的。

  • 标签输出被返回作为分类数组。

  • 在生成的代码,输入被重新缩放到网络的输入层的尺寸。但边框的检测方法返回是在参考原始输入大小。

是的

是的

另请参阅

相关话题