MATLAB®编码器™万博1manbetx支持序列和有向无环图(DAG)卷积神经网络(CNNs或ConvNets)的代码生成。您可以为任何经过训练的卷积神经网络生成代码,该网络的层支持代码生成。万博1manbetx看到万博1manbetx支持层。
以下是深度学习工具箱™中提供的预训练网络,支持用于代码生成。万博1manbetx
网络名称 | 描述 | 手臂®计算库 | 英特尔®MKL-DNN |
---|---|---|---|
AlexNet |
卷积神经网络。有关预先训练的AlexNet模型,请参见 |
是的 | 是的 |
DarkNet |
darkne19和darkne53卷积神经网络。对于预先训练的暗网模型,请参见darknet19 和darknet53 。 |
是的 | 是的 |
densenet - 201 |
DenseNet-201卷积神经网络。对于预先训练的densen -201模型,请参见 |
是的 | 是的 |
GoogLeNet |
GoogLeNet卷积神经网络。对于预先训练好的GoogLeNet模型,请参见 |
是的 | 是的 |
Inception-ResNet-v2 |
incep - resnet -v2卷积神经网络。对于预先训练的incep - resnet -v2模型,请参见 |
是的 | 是的 |
Inception-v3 |
v3卷积神经网络。有关预先训练过的incepo -v3模型,请参见inceptionv3 。 |
是的 | 是的 |
MobileNet-v2 |
mobilena -v2卷积神经网络。对于预先训练的MobileNet-v2模型,请参见 |
是的 | 是的 |
NASNet-Large |
NASNet-Large卷积神经网络。对于预先训练好的NASNet-Large模型,请参见 |
是的 | 是的 |
NASNet-Mobile |
移动卷积神经网络。对于预先训练好的NASNet-Mobile模型,请参见 |
是的 | 是的 |
ResNet |
ResNet-18, ResNet-50,和ResNet-101卷积神经网络。对于预先训练好的ResNet模型,请参见 |
是的 | 是的 |
SegNet |
多类像素分割网络。有关更多信息,请参见 |
没有 | 是的 |
SqueezeNet |
小而深的神经网络。对于预先训练的SqeezeNet模型,请参见 |
是的 | 是的 |
VGG-16 |
vgg16卷积神经网络。对于预先训练的VGG-16模型,请参见 |
是的 | 是的 |
VGG-19 |
VGG-19卷积神经网络。有关预先训练的vggg -19模型,请参阅 |
是的 | 是的 |
Xception |
叠卷积神经网络。对于预先训练好的Xception模型,请参见 |
是的 | 是的 |
以下层支持代码生成万博1manbetxMATLAB编码器用于表中指定的目标深度学习库。
安装支持包之后万博1manbetx用于深度学习的MATLAB编码器接口,你可以使用coder.getDeepLearningLayers
查看特定深度学习库支持的层列表。万博1manbetx例如:
coder.getDeepLearningLayers (“mkldnn”)
层的名字 | 描述 | 臂计算库 | 英特尔MKL-DNN |
---|---|---|---|
additionLayer |
添加层 |
是的 | 是的 |
anchorBoxLayer |
锚箱层 |
是的 | 是的 |
averagePooling2dLayer |
平均池层 |
是的 | 是的 |
batchNormalizationLayer |
批归一化层 |
是的 | 是的 |
bilstmLayer |
双向LSTM层 | 是的 | 没有 |
classificationLayer |
创建分类输出层 |
是的 | 是的 |
clippedReluLayer |
剪切整流线性单元(ReLU)层 |
是的 | 是的 |
concatenationLayer |
连接层 |
是的 | 是的 |
convolution2dLayer |
二维卷积层 |
是的 | 是的 |
crop2dLayer |
对输入应用2d裁剪的层 |
是的 | 是的 |
CrossChannelNormalizationLayer |
信道本地响应归一化层 |
是的 | 是的 |
自定义输出层 |
使用创建的所有输出层,包括自定义分类或回归输出层 有关如何定义自定义分类输出层和指定丢失函数的示例,请参见定义自定义分类输出层(深度学习工具箱)。 有关如何定义自定义回归输出层和指定损失函数的示例,请参见定义自定义回归输出层(深度学习工具箱)。 |
是的 |
是的 |
depthConcatenationLayer |
深度连接层 |
是的 | 是的 |
dropoutLayer |
辍学层 |
是的 | 是的 |
eluLayer |
指数线性单位(ELU)层 |
是的 | 是的 |
fullyConnectedLayer |
完全连接层 |
是的 | 是的 |
globalAveragePooling2dLayer |
用于空间数据的全局平均池化层 |
是的 |
是的 |
globalMaxPooling2dLayer |
二维全局最大池层 |
是的 | 是的 |
二维分组卷积层 |
是的
|
是的 |
|
imageInputLayer |
图像输入层
|
是的 | 是的 |
leakyReluLayer |
漏整线性单元(ReLU)层 |
是的 | 是的 |
lstmLayer |
长短期存储器(LSTM)层 |
是的 | 没有 |
maxPooling2dLayer |
马克斯池层 |
是的 | 是的 |
maxUnpooling2dLayer |
马克斯unpooling层 |
没有 | 是的 |
pixelClassificationLayer |
创建用于语义分割的像素分类层 |
是的 | 是的 |
regressionLayer |
创建一个回归输出层 |
是的 | 是的 |
reluLayer |
直线单元(ReLU)层 |
是的 | 是的 |
sequenceInputLayer |
序列输入层 |
是的 | 没有 |
softmaxLayer |
Softmax层 |
是的 | 是的 |
ssdMergeLayer |
SSD合并层用于对象检测 |
是的 | 是的 |
|
将激活扁平化为假设为c样式(行为主)的一维顺序 |
是的 |
是的 |
nnet.keras.layer.GlobalAveragePooling2dLayer |
用于空间数据的全局平均池化层 |
是的 |
是的 |
|
乙状结肠活化层 |
是的 |
是的 |
|
双曲正切激活层 |
是的 |
是的 |
|
零填充层为二维输入 |
是的 |
是的 |
nnet.onnx.layer.ElementwiseAffineLayer |
层,执行按元素对输入进行缩放,然后进行添加 |
是的 | 是的 |
|
ONNX网络的平层 |
是的 |
是的 |
|
实现ONNX标识操作符的层 |
是的 |
是的 |
双曲正切(tanh)层 |
是的 |
是的 |
|
转置二维卷积层 代码生成不支持输入的不对称剪裁。万博1manbetx例如,指定一个向量 |
是的 |
是的 |
|
单词嵌入层将单词索引映射到向量 |
是的 |
没有 |
|
|
输出层为YOLO v2对象检测网络 |
是的 |
是的 |
|
重组层用于YOLO v2对象检测网络 |
是的 |
是的 |
|
转换层用于YOLO v2对象检测网络 |
是的 |
是的 |
类 |
描述 |
臂计算库 |
英特尔MKL-DNN |
---|---|---|---|
|
是的 |
是的 |
|
ssdObjectDetector |
对象来使用基于ssd的检测器检测对象。
|
是的 |
是的 |