文档帮助中心文档
添加层
除了一层来自多个神经网络的输入层element-wise补充道。
指定数量的输入层当您创建它。输入层的名称“三机”、“in2’,……,“酒店”,在那里N输入的数量。使用输入名称当连接或断开层使用connectLayers或disconnectLayers。所有输入添加一层必须有相同的尺寸。
“三机”、“in2’,……,“酒店”
N
connectLayers
disconnectLayers
层= additionLayer (numInputs)
层= additionLayer (numInputs,“名字”,名称)
例子
层= additionLayer (numInputs)创建一个添加层,补充道numInputs输入element-wise。这个函数设置NumInputs财产。
层
numInputs
NumInputs
层= additionLayer (numInputs“名字”,名称)还设置了的名字财产。
层= additionLayer (numInputs“名字”,名称)
的名字
全部展开
数量的输入层,指定为一个正整数大于或等于2。
输入名称“三机”、“in2’,……,“酒店”,在那里N是NumInputs。例如,如果NumInputs是3,那么输入的名字吗“三机”、“in2”,“in3”。使用输入名称当连接或断开层使用connectLayers或disconnectLayers功能。
“三机”、“in2”
“in3”
”
图层名称,指定为一个特征向量或字符串标量。为层数组输入,trainNetwork,assembleNetwork,layerGraph,dlnetwork函数自动分配层的名称的名字设置为”。
trainNetwork
assembleNetwork
layerGraph
dlnetwork
数据类型:字符|字符串
字符
字符串
InputNames
{“三机”,“in2”,…,“客栈”}
输入名称,指定为{“三机”,“in2”,…,“客栈”},在那里N是输入的数量的层。
数据类型:细胞
细胞
NumOutputs
1
这个属性是只读的。
输出层的数量。这一层只有一个输出。
数据类型:双
双
OutputNames
{“出”}
输出层的名称。这一层只有一个输出。
全部折叠
创建一个与两个输入层和这个名字“add_1”。
“add_1”
添加= additionLayer (2“名字”,“add_1”)
添加= AdditionLayer属性:名称:“add_1”NumInputs: 2 InputNames:{“三机”“in2”}
创建两个ReLU层和连接他们的层。从ReLU添加层和输出层。
relu_1 = reluLayer (“名字”,“relu_1”);relu_2 = reluLayer (“名字”,“relu_2”);lgraph = layerGraph;lgraph = addLayers (lgraph relu_1);lgraph = addLayers (lgraph relu_2);lgraph = addLayers (lgraph,添加);lgraph = connectLayers (lgraph,“relu_1”,“add_1 /三机一体”);lgraph = connectLayers (lgraph,“relu_2”,“add_1 / in2”);情节(lgraph)
创建一个简单的有向无环图(DAG)网络深度学习。列车网络分类的图像数字。本例中的简单网络包括:
按顺序的主干层连接。
一个快捷方式连接包含一个1×1卷积层。快捷的连接使参数梯度流更容易从输出层的早期层网络。
创建的主要分支网络层的数组。添加层和多个输入element-wise。指定输入添加层的数量总和。轻松添加连接后,指定名称第一ReLU层以及层。
层= [imageInputLayer ([28 28 1]) convolution2dLayer(5日16日“填充”,“相同”)batchNormalizationLayer reluLayer (“名字”,“relu_1”32岁的)convolution2dLayer (3“填充”,“相同”,“步”,2)batchNormalizationLayer reluLayer convolution2dLayer(3, 32岁“填充”,“相同”)batchNormalizationLayer reluLayer additionLayer (2“名字”,“添加”)averagePooling2dLayer (2“步”,2)fullyConnectedLayer (10) softmaxLayer classificationLayer];
创建一个层图从数组中。layerGraph连接所有的层层按顺序。绘制层图。
lgraph = layerGraph(层);图绘制(lgraph)
创建1×1卷积层,并将其添加到层图。指定数量的卷积过滤器和步伐,以便激活大小匹配的激活大小ReLU第三层。这样的安排使添加层添加第三ReLU层和1×1的输出卷积层。检查层图,绘制层图。
32岁的skipConv = convolution2dLayer (1“步”2,“名字”,“skipConv”);lgraph = addLayers (lgraph skipConv);图绘制(lgraph)
创建快捷方式连接“relu_1”层的“添加”层。因为你指定的两个输入的数量增加层创建它时,有两个输入层“三机”和“in2”。已经连接到第三ReLU层“三机”输入。连接“relu_1”层的“skipConv”层和“skipConv”层的“in2”输入的“添加”层。添加层现在资金第三ReLU层和输出“skipConv”层。检查层连接正确,绘制层图。
“relu_1”
“添加”
“三机”
“in2”
“skipConv”
lgraph = connectLayers (lgraph,“relu_1”,“skipConv”);lgraph = connectLayers (lgraph,“skipConv”,“添加/ in2”);图绘制(lgraph);
负荷训练和验证数据,包括28-by-28灰度图像的数字。
[XTrain, YTrain] = digitTrain4DArrayData;[XValidation, YValidation] = digitTest4DArrayData;
指定培训方案和培训网络。trainNetwork验证网络使用验证数据ValidationFrequency迭代。
ValidationFrequency
选择= trainingOptions (“个”,…“MaxEpochs”8…“洗牌”,“every-epoch”,…“ValidationData”{XValidation, YValidation},…“ValidationFrequency”30岁的…“详细”假的,…“阴谋”,“训练进步”);网= trainNetwork (XTrain YTrain、lgraph选项);
显示的属性训练网络。网络是一个DAGNetwork对象。
DAGNetwork
净
网= DAGNetwork属性:层:x1 nnet.cnn.layer.Layer[16]连接:[16 x2表]InputNames: {“imageinput”} OutputNames: {“classoutput”}
分类验证图像和计算精度。网络是非常准确的。
YPredicted =分类(净,XValidation);精度=意味着(YPredicted = = YValidation)
精度= 0.9934
trainNetwork|layerGraph|depthConcatenationLayer
depthConcatenationLayer
您有一张这本Beispiels geanderte版本。您这本Beispiel麻省理工学院古老Anderungen offnen吗?
您有窗户的链接geklickt,汪汪汪der diesem MATLAB-Befehl entspricht:
在das MATLAB-Befehlsfenster Fuhren您窝Befehl军队Eingabe来自。浏览器unterstutzen MATLAB-Befehle。
选择一个网站翻译内容,看到当地事件和提供。根据你的位置,我们建议您选择:。
你也可以从下面的列表中选择一个网站:
选择中国网站(中文或英文)最佳站点的性能。其他MathWorks国家网站不优化的访问你的位置。
联系你当地的办公室