MATLAB®编码器™万博1manbetx支持序列和有向无环图(DAG)卷积神经网络(CNNs或ConvNets)的代码生成。您可以为任何经过训练的卷积神经网络生成代码,它的层支持代码生成。万博1manbetx看到万博1manbetx支持图层。
以下在深度学习工具箱™中提供的预先训练的网络可用于代码生成。万博1manbetx
网络名称 | 描述 | 手臂®计算库 | 英特尔®MKL-DNN |
---|---|---|---|
AlexNet |
AlexNet卷积神经网络。对于预先训练的AlexNet模型,请参见 |
是的 | 是的 |
DarkNet |
DarkNet-19和DarkNet-53卷积神经网络。对于预先训练的暗网模型,请看darknet19 和darknet53 。 |
是的 | 是的 |
densenet - 201 |
DenseNet-201卷积神经网络。对于预训练的DenseNet-201模型,参见 |
是的 | 是的 |
GoogLeNet |
GoogLeNet卷积神经网络。对于预先训练的GoogLeNet模型,参见 |
是的 | 是的 |
Inception-ResNet-v2 |
成立之初,RESNET-V2卷积神经网络。对于预训练的盗梦空间,RESNET-V2型号,请参阅 |
是的 | 是的 |
盗梦空间-V3 |
盗梦空间-V3卷积神经网络。对于预训练盗-V3型号,请参阅inceptionv3 。 |
是的 | 是的 |
MobileNet-v2 |
MobileNet-V2卷积神经网络。对于预训练MobileNet-V2型号,请参阅 |
是的 | 是的 |
NASNet,大 |
NASNet-大卷积神经网络。对于预训练NASNet-Large模式,见 |
是的 | 是的 |
NASNet-Mobile的 |
NASNet-Mobile卷积神经网络。对于预训练过的NASNet-Mobile模型,请参见 |
是的 | 是的 |
RESNET |
RESNET-18,RESNET-50,和RESNET-101卷积神经网络。对于预训练RESNET车型,看看 |
是的 | 是的 |
SegNet |
多级的基于像素的分割网络。欲了解更多信息,请参阅 |
没有 | 是的 |
SqueezeNet |
小,深层神经网络。对于预训练SqeezeNet车型,看看 |
是的 | 是的 |
VGG-16 |
VGG-16卷积神经网络。对于预训练VGG-16型号,请参阅 |
是的 | 是的 |
VGG-19 |
VGG-19卷积神经网络。对于预训练VGG-19型号,请参阅 |
是的 | 是的 |
Xception |
Xception卷积神经网络。对于预训练Xception型号,请参阅 |
是的 | 是的 |
以下层支持代码生成万博1manbetxMATLAB编码器针对表中指定的目标深度学习库。
一旦你安装了支持包万博1manbetxMATLAB编码器接口,用于深度学习库,你可以使用coder.getDeepLearningLayers
查看特定深度学习库支持的层的列表。万博1manbetx例如:
coder.getDeepLearningLayers (“mkldnn”)
层的名字 | 描述 | 臂计算库 | 英特尔MKL-DNN |
---|---|---|---|
additionLayer |
添加层 |
是的 | 是的 |
anchorBoxLayer |
锚箱层 |
是的 | 是的 |
averagePooling2dLayer |
平均汇聚层 |
是的 | 是的 |
batchNormalizationLayer |
批归一化层 |
是的 | 是的 |
bilstmLayer |
双向LSTM层 | 是的 | 没有 |
classificationLayer |
创建分类输出层 |
是的 | 是的 |
clippedReluLayer |
剪切整流线性单元(ReLU)层 |
是的 | 是的 |
concatenationLayer |
级联层 |
是的 | 是的 |
convolution2dLayer |
二维卷积层 |
是的 | 是的 |
crop2dLayer |
层,应用2-D裁剪到输入 |
是的 | 是的 |
CrossChannelNormalizationLayer |
信道局部响应归一化层 |
是的 | 是的 |
自定义输出层 |
所有输出层,其包括通过使用创建的自定义分类或回归输出层 为示出了如何定义自定义分类输出层,并指定一个损失函数的例子,请参见定义自定义分类输出层(深学习工具箱)。 为示出了如何定义自定义回归输出层,并指定一个损失函数的例子,请参见定义自定义回归输出层(深学习工具箱)。 |
是的 |
是的 |
depthConcatenationLayer |
深度连接层 |
是的 | 是的 |
dropoutLayer |
辍学层 |
是的 | 是的 |
eluLayer |
指数线性单元(ELU)层 |
是的 | 是的 |
fullyConnectedLayer |
完全连接层 |
是的 | 是的 |
globalAveragePooling2dLayer |
对空间数据全球平均池层 |
是的 |
是的 |
globalMaxPooling2dLayer |
2-d全局最大池层 |
是的 | 是的 |
2-d分组卷积层 |
是的
|
是的 |
|
imageInputLayer |
图像输入层
|
是的 | 是的 |
leakyReluLayer |
漏电整流线性单元(ReLU)层 |
是的 | 是的 |
lstmLayer |
长短期记忆(LSTM)层 |
是的 | 没有 |
maxPooling2dLayer |
马克斯池层 |
是的 | 是的 |
maxUnpooling2dLayer |
最大unpooling层 |
没有 | 是的 |
pixelClassificationLayer |
为语义分割创建像素分类层 |
是的 | 是的 |
regressionLayer |
创建一个回归输出层 |
是的 | 是的 |
reluLayer |
整流线性单元(ReLU)层 |
是的 | 是的 |
sequenceInputLayer |
序列输入层 |
是的 | 没有 |
softmaxLayer |
SOFTMAX层 |
是的 | 是的 |
ssdMergeLayer |
用于对象检测的SSD合并层 |
是的 | 是的 |
|
平展激活成1-d假设C风格(行主)为了 |
是的 |
是的 |
nnet.keras.layer.GlobalAveragePooling2dLayer |
对空间数据全球平均池层 |
是的 |
是的 |
|
乙状结肠激活层 |
是的 |
是的 |
|
双曲正切激活层 |
是的 |
是的 |
|
2-D输入的零填充层 |
是的 |
是的 |
nnet.onnx.layer.ElementwiseAffineLayer |
层,该层对输入执行元素级伸缩,然后执行加法 |
是的 | 是的 |
|
ONNX™网络的平坦层 |
是的 |
是的 |
|
层实现ONNX身份操作 |
是的 |
是的 |
双曲正切(双曲正切)层 |
是的 |
是的 |
|
转置二维卷积层 代码生成不支持输入的不对称裁剪。万博1manbetx例如,指定一个矢量 |
是的 |
是的 |
|
一个字埋入层映射字索引到矢量 |
是的 |
没有 |
|
|
对于YOLO v2的物体检测网络输出层 |
是的 |
是的 |
|
YOLO v2对象检测网络的重组层 |
是的 |
是的 |
|
用于YOLO v2对象检测网络的变换层 |
是的 |
是的 |
类 |
描述 |
臂计算库 |
英特尔MKL-DNN |
---|---|---|---|
|
是的 |
是的 |
|
ssdObjectDetector |
对象使用基于ssd的检测器检测对象。
|
是的 |
是的 |