不能继续训练R-CNN探测器使用《盗梦空间》;错误:“无关的输入。每一层的输入必须连接到另一层的输出”。

28日视图(30天)
人物介绍:
我想使用深度学习工具箱训练使用InceptionV3 R-CNN对象探测器,然而当试图“继续”培训,我得到一个错误,所有的层都是无关的。根据文档
SeriesNetwork,“当你指定网络层对象数组,或者通过网络名称,网络会自动转换为R-CNN网络通过添加新的分类和回归层支持对象检测”万博1manbetx
然而,它看起来像层从这个转换网络不兼容trainRCNNObjectDetector,或者我丢失的东西。如果有什么我需要做的,文档是非常不清楚。虽然我可以每次都从头开始,效率似乎我不能转移从一个调谐网络基于一些新的输入数据,或继续培训提高精度(如果我们不过度拟合的领土)。开始做一个小批量的原因是调整学习速率,可能使用一个循环一个周期的政策等学习速率。
这似乎是一个错误,但我不确定。
步骤1:使用从trainRCNNObjectDetector停车标志的例子
% %负荷训练数据和网络层。
负载(“rcnnStopSigns.mat”,“stopSigns”,“层”)
mynetwork =“inceptionv3”;
% %
%添加MATLAB的图像目录路径。
imDir = fullfile (matlabroot,“工具箱”,“愿景”,“visiondata”,
“stopSignImages”);
目录(imDir);
% %
%设置网络训练选项使用mini-batch 32减少GPU的大小
%内存使用。降低InitialLearnRate减少的速度
%网络参数改变。这是有益的在微调
% pre-trained网络和阻止网络改变过快。
选择= trainingOptions (“个”,
“MiniBatchSize”32岁的
“InitialLearnRate”1 e-6
“MaxEpochs”5);
% %
%训练R-CNN探测器。训练可以花几分钟来完成。
rcnn = trainRCNNObjectDetector (stopSigns mynetwork,选项,“NegativeOverlapRange”0.3 [0]);
和输出是:
* * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * *
培训一个R-CNN对象探测器以下对象类:
* stopSign
- - >从27日训练图像提取区域建议……。
- - >在训练数据训练神经网络分类对象……
培训单一的GPU。
初始化输入数据规范化。
| = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = |
| | |时代迭代时间| Mini-batch | Mini-batch学习| |基地
| | | (hh: mm: ss) | | | |亏损率准确性
| = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = |
| 1 | 1 | 00:00:03 | 28.13% | 0.7700 | 1.0000 e-06 |
| 2 | 50 | 00:05:58 | 31.25% | 0.7473 | 1.0000 e-06 |
| 3 | 100 | 00:11:54 | 34.38% | 0.7232 | 1.0000 e-06 |
| 5 | 150 | 00:17:50 | 50.00% | 0.7184 | 1.0000 e-06 |
| 5 | 175 | 00:20:48 | 46.88% | 0.6998 | 1.0000 e-06 |
| = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = = |
网络训练完成。
- - >培训边界框回归模型为每个对象类……100.00%……做的。
检测器训练完成。
* * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * *
步骤2:但是当我试着继续它(例如运行更多的时代),我得到一个错误
% %设置培训选项——测试学习速率
checkpointPath = pwd;
选择= trainingOptions (“个”,
“MiniBatchSize”32岁的
“InitialLearnRate”1 e-5
“LearnRateSchedule”,“分段”,
“LearnRateDropFactor”,0.1,
“LearnRateDropPeriod”10
“MaxEpochs”,100,
“详细”,真正的);
% %从先前版本继续训练
网络= rcnn.Network;
层= network.Layers;
rcnn = trainRCNNObjectDetector (stopSigns层,选择,“NegativeOverlapRange”,0.3 [0],“PositiveOverlapRange”(0.5 - 1));
我得到以下错误:
错误使用trainRCNNObjectDetector(第256行)
无效的网络。
错误testcodeforinceptionrcnn(40行)
rcnn = trainRCNNObjectDetector (stopSigns层,选择,NegativeOverlapRange, 0.3 [0],“PositiveOverlapRange”, [0.5 - 1]);
引起的:
层“concatenate_1”:无关的输入。每一层的输入必须连接到另一层的输出。
检测无关的输入:
输入“in2”
层“concatenate_2”:无关的输入。每一层的输入必须连接到另一层的输出。
检测无关的输入:
输入“in2”
层“conv2d_7”:输入大小不匹配。输入层的尺寸不同于预期的输入的大小。
输入层:
从层“activation_9_relu”(输出尺寸35××64)
层“mixed0”:无关的输入。每一层的输入必须连接到另一层的输出。
检测无关的输入:
输入“in2”
输入“in3”
输入“in4”
层“mixed1”:无关的输入。每一层的输入必须连接到另一层的输出。
检测无关的输入:
输入“in2”
输入“in3”
输入“in4”
层“mixed10”:无关的输入。每一层的输入必须连接到另一层的输出。
检测无关的输入:
输入“in2”
输入“in3”
输入“in4”
层“mixed2”:无关的输入。每一层的输入必须连接到另一层的输出。
检测无关的输入:
输入“in2”
输入“in3”
输入“in4”
层“mixed3”:无关的输入。每一层的输入必须连接到另一层的输出。
检测无关的输入:
输入“in2”
输入“in3”
层“mixed4”:无关的输入。每一层的输入必须连接到另一层的输出。
检测无关的输入:
输入“in2”
输入“in3”
输入“in4”
层“mixed5”:无关的输入。每一层的输入必须连接到另一层的输出。
检测无关的输入:
输入“in2”
输入“in3”
输入“in4”
层“mixed6”:无关的输入。每一层的输入必须连接到另一层的输出。
检测无关的输入:
输入“in2”
输入“in3”
输入“in4”
层“mixed7”:无关的输入。每一层的输入必须连接到另一层的输出。
检测无关的输入:
输入“in2”
输入“in3”
输入“in4”
层“mixed8”:无关的输入。每一层的输入必须连接到另一层的输出。
检测无关的输入:
输入“in2”
输入“in3”
层“mixed9”:无关的输入。每一层的输入必须连接到另一层的输出。
检测无关的输入:
输入“in2”
输入“in3”
输入“in4”
层“mixed9_0”:无关的输入。每一层的输入必须连接到另一层的输出。
检测无关的输入:
输入“in2”
层“mixed9_1”:无关的输入。每一层的输入必须连接到另一层的输出。
检测无关的输入:
输入“in2”
检查网络,来自步骤1:
> > rcnn.Network
ans =
DAGNetwork属性:
层(315×1 nnet.cnn.layer.Layer):
连接(349×2表):
InputNames: {“input_1”}
OutputNames: {“rcnnClassification”}
最后,“层”的输出数组,我试着使用 :
> > rcnn.Network.Layers
ans =
315年x1层与层:数组
299 x299x3 input_1的图像输入图像与rescale-symmetric正常化
2‘conv2d_1卷积32子集要旋转步(2 - 2)和填充[0 0 0 0]
3 ' batch_normalization_1 '批量标准化批量标准化与32频道
4‘activation_1_relu ReLU ReLU
5‘conv2d_2卷积32 3 x3x32旋转步[1]和填充[0 0 0 0]
6“batch_normalization_2”批量标准化批量标准化32频道
7的activation_2_relu ReLU ReLU
64 3 x3x32 conv2d_3的卷积运算与步幅[1]和填充“相同”
9的batch_normalization_3批量标准化批量标准化与64个频道
10的activation_3_relu ReLU ReLU
11“max_pooling2d_1”马克斯池3 x3 Max池步(2 - 2)和填充[0 0 0 0]
80 1 x1x64 conv2d_4的卷积运算与步幅[1]和填充[0 0 0 0]
13“batch_normalization_4”批量标准化批量标准化与80个频道
14的activation_4_relu ReLU ReLU
15 conv2d_5卷积192 3 x3x80旋转步[1]和填充[0 0 0 0]
16“batch_normalization_5”批量标准化批量标准化与192个频道
17的activation_5_relu ReLU ReLU
18“max_pooling2d_2”马克斯池3 x3 Max池步(2 - 2)和填充[0 0 0 0]
19 conv2d_9卷积64 1 x1x192旋转步[1]和填充“相同”
20 ' batch_normalization_9批量标准化批量标准化与64个频道
21的activation_9_relu ReLU ReLU
22“conv2d_7”卷积48 1 x1x192旋转步[1]和填充“相同”
23 conv2d_10卷积96 3 x3x64旋转步[1]和填充“相同”
24“batch_normalization_7”批量标准化批量标准化48通道
25的batch_normalization_10批量标准化批量标准化与96个频道
26的activation_7_relu ReLU ReLU
27日的activation_10_relu ReLU ReLU
28“average_pooling2d_1”平均池3 x3平均池步[1]和填充“相同”
29 conv2d_6卷积64 1 x1x192旋转步[1]和填充“相同”
30 conv2d_8卷积64 5 x5x48旋转步[1]和填充“相同”
31 conv2d_11卷积96 3 x3x96旋转步[1]和填充“相同”
32的conv2d_12卷积32 1 x1x192旋转步[1]和填充“相同”
33的batch_normalization_6批量标准化批量标准化与64个频道
34“batch_normalization_8”批量标准化批量标准化与64个频道
35的batch_normalization_11批量标准化批量标准化与96个频道
36“batch_normalization_12”批量标准化批量标准化32频道
37的activation_6_relu ReLU ReLU
38“activation_8_relu”ReLU ReLU
39的activation_11_relu ReLU ReLU
40的activation_12_relu ReLU ReLU
41“mixed0”深度连接深度连接4输入
42 conv2d_16卷积64 1 x1x256旋转步[1]和填充“相同”
43的batch_normalization_16批量标准化批量标准化与64个频道
44的activation_16_relu ReLU ReLU
45‘conv2d_14卷积48 1 x1x256旋转步[1]和填充“相同”
46 conv2d_17卷积96 3 x3x64旋转步[1]和填充“相同”
47“batch_normalization_14”批量标准化批量标准化48通道
48“batch_normalization_17”批量标准化批量标准化与96个频道
49的activation_14_relu ReLU ReLU
50的activation_17_relu ReLU ReLU
51的average_pooling2d_2平均池3 x3平均池与步幅[1]和填充“相同”
52 conv2d_13卷积64 1 x1x256旋转步[1]和填充“相同”
53 conv2d_15卷积64 5 x5x48旋转步[1]和填充“相同”
54 conv2d_18卷积96 3 x3x96旋转步[1]和填充“相同”
55的conv2d_19卷积64 1 x1x256旋转步[1]和填充“相同”
56的batch_normalization_13批量标准化批量标准化与64个频道
57的batch_normalization_15批量标准化批量标准化与64个频道
58 batch_normalization_18的批量标准化批量标准化与96个频道
59岁的batch_normalization_19批量标准化批量标准化与64个频道
60的activation_13_relu ReLU ReLU
61年“activation_15_relu”ReLU ReLU
62年“activation_18_relu”ReLU ReLU
63年“activation_19_relu”ReLU ReLU
64 mixed1深度深度串联连接的输入
65 conv2d_23卷积64 1 x1x288旋转步[1]和填充“相同”
66年“batch_normalization_23”批量标准化批量标准化与64个频道
67年“activation_23_relu”ReLU ReLU
68的conv2d_21卷积48 x1x288旋转步[1]和填充“相同”
69 conv2d_24卷积96 3 x3x64旋转步[1]和填充“相同”
70“batch_normalization_21”批量标准化批量标准化48通道
71年“batch_normalization_24”批量标准化批量标准化与96个频道
72年“activation_21_relu”ReLU ReLU
73年“activation_24_relu”ReLU ReLU
74年“average_pooling2d_3”平均池3 x3平均池步[1]和填充“相同”
75 conv2d_20卷积64 1 x1x288旋转步[1]和填充“相同”
76 conv2d_22卷积64 5 x5x48旋转步[1]和填充“相同”
77 conv2d_25卷积96 3 x3x96旋转步[1]和填充“相同”
78 conv2d_26卷积64 1 x1x288旋转步[1]和填充“相同”
79年“batch_normalization_20”批量标准化批量标准化与64个频道
80年“batch_normalization_22”批量标准化批量标准化与64个频道
81年“batch_normalization_25”批量标准化批量标准化与96个频道
82年“batch_normalization_26”批量标准化批量标准化与64个频道
83年“activation_20_relu”ReLU ReLU
84年“activation_22_relu”ReLU ReLU
85年“activation_25_relu”ReLU ReLU
86年“activation_26_relu”ReLU ReLU
87 mixed2深度深度串联连接的输入
88 conv2d_28卷积64 1 x1x288旋转步[1]和填充“相同”
89年“batch_normalization_28”批量标准化批量标准化与64个频道
90年“activation_28_relu”ReLU ReLU
91 conv2d_29卷积96 3 x3x64旋转步[1]和填充“相同”
92年“batch_normalization_29”批量标准化批量标准化与96个频道
93年“activation_29_relu”ReLU ReLU
94 conv2d_27卷积384 3 x3x288旋转步(2 - 2)和填充[0 0 0 0]
95 conv2d_30卷积96 3 x3x96旋转步(2 - 2)和填充[0 0 0 0]
96年“batch_normalization_27”批量标准化批量标准化与384个频道
97年“batch_normalization_30”批量标准化批量标准化与96个频道
98年“activation_27_relu”ReLU ReLU
99年“activation_30_relu”ReLU ReLU
100“max_pooling2d_3”马克斯池3 x3马克斯池步(2 - 2)和填充[0 0 0 0]
101 mixed3深度深度串联连接的输入
102 conv2d_35卷积128 1 x1x768旋转步[1]和填充“相同”
103年“batch_normalization_35”批量标准化批量标准化与128个频道
104年“activation_35_relu”ReLU ReLU
105 conv2d_36卷积128 7 x1x128旋转步[1]和填充“相同”
106年“batch_normalization_36”批量标准化批量标准化与128个频道
107年“activation_36_relu”ReLU ReLU
108 conv2d_32卷积128 1 x1x768旋转步[1]和填充“相同”
109 conv2d_37卷积128 1 x7x128旋转步[1]和填充“相同”
110年“batch_normalization_32”批量标准化批量标准化与128个频道
111年“batch_normalization_37”批量标准化批量标准化与128个频道
112年“activation_32_relu”ReLU ReLU
113年“activation_37_relu”ReLU ReLU
114 conv2d_33卷积128 1 x7x128旋转步[1]和填充“相同”
115 conv2d_38卷积128 7 x1x128旋转步[1]和填充“相同”
116年“batch_normalization_33”批量标准化批量标准化与128个频道
117年“batch_normalization_38”批量标准化批量标准化与128个频道
118年“activation_33_relu”ReLU ReLU
119年“activation_38_relu”ReLU ReLU
120年“average_pooling2d_4”平均池3 x3平均池步[1]和填充“相同”
121 conv2d_31卷积192 1 x1x768旋转步[1]和填充“相同”
122 conv2d_34卷积192 7 x1x128旋转步[1]和填充“相同”
123 conv2d_39卷积192 1 x7x128旋转步[1]和填充“相同”
124 conv2d_40卷积192 1 x1x768旋转步[1]和填充“相同”
125年“batch_normalization_31”批量标准化批量标准化与192个频道
126年“batch_normalization_34”批量标准化批量标准化与192个频道
127年“batch_normalization_39”批量标准化批量标准化与192个频道
128年“batch_normalization_40”批量标准化批量标准化与192个频道
129年“activation_31_relu”ReLU ReLU
130年“activation_34_relu”ReLU ReLU
131年“activation_39_relu”ReLU ReLU
132年“activation_40_relu”ReLU ReLU
133 mixed4深度深度串联连接的输入
134 conv2d_45卷积160 1 x1x768旋转步[1]和填充“相同”
135年“batch_normalization_45”批量标准化批量标准化与160个频道
136年“activation_45_relu”ReLU ReLU
137 conv2d_46卷积160 7 x1x160旋转步[1]和填充“相同”
138年“batch_normalization_46”批量标准化批量标准化与160个频道
139年“activation_46_relu”ReLU ReLU
140 conv2d_42卷积160 1 x1x768旋转步[1]和填充“相同”
141 conv2d_47卷积160 1 x7x160旋转步[1]和填充“相同”
142年“batch_normalization_42”批量标准化批量标准化与160个频道
143年“batch_normalization_47”批量标准化批量标准化与160个频道
144年“activation_42_relu”ReLU ReLU
145年“activation_47_relu”ReLU ReLU
146 conv2d_43卷积160 1 x7x160旋转步[1]和填充“相同”
147 conv2d_48卷积160 7 x1x160旋转步[1]和填充“相同”
148年“batch_normalization_43”批量标准化批量标准化与160个频道
149年“batch_normalization_48”批量标准化批量标准化与160个频道
150年“activation_43_relu”ReLU ReLU
151年“activation_48_relu”ReLU ReLU
152年“average_pooling2d_5”平均池3 x3平均池步[1]和填充“相同”
153 conv2d_41卷积192 1 x1x768旋转步[1]和填充“相同”
154 conv2d_44卷积192 7 x1x160旋转步[1]和填充“相同”
155 conv2d_49卷积192 1 x7x160旋转步[1]和填充“相同”
156 conv2d_50卷积192 1 x1x768旋转步[1]和填充“相同”
157年“batch_normalization_41”批量标准化批量标准化与192个频道
158年“batch_normalization_44”批量标准化批量标准化与192个频道
159年“batch_normalization_49”批量标准化批量标准化与192个频道
160年“batch_normalization_50”批量标准化批量标准化与192个频道
161年“activation_41_relu”ReLU ReLU
162年“activation_44_relu”ReLU ReLU
163年“activation_49_relu”ReLU ReLU
164年“activation_50_relu”ReLU ReLU
165 mixed5深度深度串联连接的输入
166 conv2d_55卷积160 1 x1x768旋转步[1]和填充“相同”
167年“batch_normalization_55”批量标准化批量标准化与160个频道
168年“activation_55_relu”ReLU ReLU
169 conv2d_56卷积160 7 x1x160旋转步[1]和填充“相同”
170年“batch_normalization_56”批量标准化批量标准化与160个频道
171年“activation_56_relu”ReLU ReLU
172 conv2d_52卷积160 1 x1x768旋转步[1]和填充“相同”
173 conv2d_57卷积160 1 x7x160旋转步[1]和填充“相同”
174年“batch_normalization_52”批量标准化批量标准化与160个频道
175年“batch_normalization_57”批量标准化批量标准化与160个频道
176年“activation_52_relu”ReLU ReLU
177年“activation_57_relu”ReLU ReLU
178 conv2d_53卷积160 1 x7x160旋转步[1]和填充“相同”
179 conv2d_58卷积160 7 x1x160旋转步[1]和填充“相同”
180年“batch_normalization_53”批量标准化批量标准化与160个频道
181年“batch_normalization_58”批量标准化批量标准化与160个频道
182年“activation_53_relu”ReLU ReLU
183年“activation_58_relu”ReLU ReLU
184年“average_pooling2d_6”平均池3 x3平均池步[1]和填充“相同”
185 conv2d_51卷积192 1 x1x768旋转步[1]和填充“相同”
186 conv2d_54卷积192 7 x1x160旋转步[1]和填充“相同”
187 conv2d_59卷积192 1 x7x160旋转步[1]和填充“相同”
188 conv2d_60卷积192 1 x1x768旋转步[1]和填充“相同”
189年“batch_normalization_51”批量标准化批量标准化与192个频道
190年“batch_normalization_54”批量标准化批量标准化与192个频道
191年“batch_normalization_59”批量标准化批量标准化与192个频道
192年“batch_normalization_60”批量标准化批量标准化与192个频道
193年“activation_51_relu”ReLU ReLU
194年“activation_54_relu”ReLU ReLU
195年“activation_59_relu”ReLU ReLU
196年“activation_60_relu”ReLU ReLU
197 mixed6深度深度串联连接的输入
198 conv2d_65卷积192 1 x1x768旋转步[1]和填充“相同”
199年“batch_normalization_65”批量标准化批量标准化与192个频道
200年“activation_65_relu”ReLU ReLU
201 conv2d_66卷积192 7 x1x192旋转步[1]和填充“相同”
202年“batch_normalization_66”批量标准化批量标准化与192个频道
203年“activation_66_relu”ReLU ReLU
204 conv2d_62卷积192 1 x1x768旋转步[1]和填充“相同”
205 conv2d_67卷积192 1 x7x192旋转步[1]和填充“相同”
206年“batch_normalization_62”批量标准化批量标准化与192个频道
207年“batch_normalization_67”批量标准化批量标准化与192个频道
208年“activation_62_relu”ReLU ReLU
209年“activation_67_relu”ReLU ReLU
210 conv2d_63卷积192 1 x7x192旋转步[1]和填充“相同”
211 conv2d_68卷积192 7 x1x192旋转步[1]和填充“相同”
212年“batch_normalization_63”批量标准化批量标准化与192个频道
213年“batch_normalization_68”批量标准化批量标准化与192个频道
214年“activation_63_relu”ReLU ReLU
215年“activation_68_relu”ReLU ReLU
216年“average_pooling2d_7”平均池3 x3平均池步[1]和填充“相同”
217 conv2d_61卷积192 1 x1x768旋转步[1]和填充“相同”
218 conv2d_64卷积192 7 x1x192旋转步[1]和填充“相同”
219 conv2d_69卷积192 1 x7x192旋转步[1]和填充“相同”
220 conv2d_70卷积192 1 x1x768旋转步[1]和填充“相同”
221年“batch_normalization_61”批量标准化批量标准化与192个频道
222年“batch_normalization_64”批量标准化批量标准化与192个频道
223年“batch_normalization_69”批量标准化批量标准化与192个频道
224年“batch_normalization_70”批量标准化批量标准化与192个频道
225年“activation_61_relu”ReLU ReLU
226年“activation_64_relu”ReLU ReLU
227年“activation_69_relu”ReLU ReLU
228年“activation_70_relu”ReLU ReLU
229 mixed7深度深度串联连接的输入
230 conv2d_73卷积192 1 x1x768旋转步[1]和填充“相同”
231年“batch_normalization_73”批量标准化批量标准化与192个频道
232年“activation_73_relu”ReLU ReLU
233 conv2d_74卷积192 1 x7x192旋转步[1]和填充“相同”
234年“batch_normalization_74”批量标准化批量标准化与192个频道
235年“activation_74_relu”ReLU ReLU
236 conv2d_71卷积192 1 x1x768旋转步[1]和填充“相同”
237 conv2d_75卷积192 7 x1x192旋转步[1]和填充“相同”
238年“batch_normalization_71”批量标准化批量标准化与192个频道
239年“batch_normalization_75”批量标准化批量标准化与192个频道
240年“activation_71_relu”ReLU ReLU
241年“activation_75_relu”ReLU ReLU
242 conv2d_72卷积320 3 x3x192旋转步(2 - 2)和填充[0 0 0 0]
243 conv2d_76卷积192 3 x3x192旋转步(2 - 2)和填充[0 0 0 0]
244年“batch_normalization_72”批量标准化批量标准化与320个频道
245年“batch_normalization_76”批量标准化批量标准化与192个频道
246年“activation_72_relu”ReLU ReLU
247年“activation_76_relu”ReLU ReLU
248“max_pooling2d_4”马克斯池3 x3马克斯池步(2 - 2)和填充[0 0 0 0]
249 mixed8深度深度串联连接的输入
250 conv2d_81卷积448 1 x1x1280旋转步[1]和填充“相同”
251年“batch_normalization_81”批量标准化批量标准化与448个频道
252年“activation_81_relu”ReLU ReLU
253 conv2d_78卷积384 1 x1x1280旋转步[1]和填充“相同”
254 conv2d_82卷积384 3 x3x448旋转步[1]和填充“相同”
255年“batch_normalization_78”批量标准化批量标准化与384个频道
256年“batch_normalization_82”批量标准化批量标准化与384个频道
257年“activation_78_relu”ReLU ReLU
258年“activation_82_relu”ReLU ReLU
259 conv2d_79卷积384 1 x3x384旋转步[1]和填充“相同”
260 conv2d_80卷积384 3 x1x384旋转步[1]和填充“相同”
261 conv2d_83卷积384 1 x3x384旋转步[1]和填充“相同”
262 conv2d_84卷积384 3 x1x384旋转步[1]和填充“相同”
263年“average_pooling2d_8”平均池3 x3平均池步[1]和填充“相同”
264 conv2d_77卷积320 1 x1x1280旋转步[1]和填充“相同”
265年“batch_normalization_79”批量标准化批量标准化与384个频道
266年“batch_normalization_80”批量标准化批量标准化与384个频道
267年“batch_normalization_83”批量标准化批量标准化与384个频道
268年“batch_normalization_84”批量标准化批量标准化与384个频道
269 conv2d_85卷积192 1 x1x1280旋转步[1]和填充“相同”
270年“batch_normalization_77”批量标准化批量标准化与320个频道
271年“activation_79_relu”ReLU ReLU
272年“activation_80_relu”ReLU ReLU
273年“activation_83_relu”ReLU ReLU
274年“activation_84_relu”ReLU ReLU
275年“batch_normalization_85”批量标准化批量标准化与192个频道
276年“activation_77_relu”ReLU ReLU
277年“mixed9_0”深度连接深度连接2的输入
278年“concatenate_1”深度连接深度连接2的输入
279年“activation_85_relu”ReLU ReLU
280 mixed9深度深度串联连接的输入
281 conv2d_90卷积448 1 x1x2048旋转步[1]和填充“相同”
282年“batch_normalization_90”批量标准化批量标准化与448个频道
283年“activation_90_relu”ReLU ReLU
284 conv2d_87卷积384 1 x1x2048旋转步[1]和填充“相同”
285 conv2d_91卷积384 3 x3x448旋转步[1]和填充“相同”
286年“batch_normalization_87”批量标准化批量标准化与384个频道
287年“batch_normalization_91”批量标准化批量标准化与384个频道
288年“activation_87_relu”ReLU ReLU
289年“activation_91_relu”ReLU ReLU
290 conv2d_88卷积384 1 x3x384旋转步[1]和填充“相同”
291 conv2d_89卷积384 3 x1x384旋转步[1]和填充“相同”
292 conv2d_92卷积384 1 x3x384旋转步[1]和填充“相同”
293 conv2d_93卷积384 3 x1x384旋转步[1]和填充“相同”
294年“average_pooling2d_9”平均池3 x3平均池步[1]和填充“相同”
295 conv2d_86卷积320 1 x1x2048旋转步[1]和填充“相同”
296年“batch_normalization_88”批量标准化批量标准化与384个频道
297年“batch_normalization_89”批量标准化批量标准化与384个频道
298年“batch_normalization_92”批量标准化批量标准化与384个频道
299年“batch_normalization_93”批量标准化批量标准化与384个频道
300 conv2d_94卷积192 1 x1x2048旋转步[1]和填充“相同”
301年“batch_normalization_86”批量标准化批量标准化与320个频道
302年“activation_88_relu”ReLU ReLU
303年“activation_89_relu”ReLU ReLU
304年“activation_92_relu”ReLU ReLU
305年“activation_93_relu”ReLU ReLU
306年“batch_normalization_94”批量标准化批量标准化与192个频道
307年“activation_86_relu”ReLU ReLU
308年“mixed9_1”深度连接深度连接2的输入
309年“concatenate_2”深度连接深度连接2的输入
310年“activation_94_relu”ReLU ReLU
311 mixed10深度深度串联连接的输入
312年“avg_pool”全球平均分担全球平均池
313“rcnnFC”完全连接2完全连接层
314年“rcnnSoftmax”Softmax Softmax
315年“rcnnClassification”分类输出crossentropyex类“stopSign”和“背景”
请帮助!
1评论
Xinyue蔡
Xinyue蔡 2020年12月6日
嗨,山姆,你算出来了吗?我得到同样的错误消息(“独立输入”)在列车inceptionv3分类72新类的图片…

登录置评。

接受的答案

山姆Mantravadi
山姆Mantravadi 2020年12月7日
编辑:山姆Mantravadi 2020年12月7日
对不起,我自己找到了答案,但没有转贴。
解决方案(至少对于InceptionV3和resnets)是重新封装网络layergraph初始训练后而不是简单地使用层,比如,“步骤2”的最后三行以上成为:
网络= rcnn.Network;
rcnn = trainRCNNObjectDetector (stopSigns layerGraph(网络),选择,“NegativeOverlapRange”,0.3 [0],“PositiveOverlapRange”(0.5 - 1));
我问Mathworks更新他们的文档,呼吁人们关注这个,因为它是不明显的例子。
1评论
塞巴斯蒂安阻止
塞巴斯蒂安阻止 2021年7月30日
天哪……我在这里希望看到一个解决方案,使用layerGraph不涉及。
(我需要网络保持作为图像数组从那时起它就不会成为一个DAGNetwork,我可以使用semanticseg ()。)

登录置评。

更多的答案(0)

社区寻宝

找到宝藏在MATLAB中央,发现社区如何帮助你!

开始狩猎!

翻译的