主要内容

从训练数据估算锚盒

锚盒是深度学习对象探测器的重要参数,如更快的R-CNN和YOLO V2。锚箱的形状,缩放和数量会影响探测器的效率和准确性。

有关更多信息,请参阅用于物体检测的锚盒

负载培训数据

加载车辆数据集,其中包含295个图像和关联的框标签。

data = load('vevicletrainingdata.mat');vevicledataset = data.vehicletRainingData;

将完整路径添加到本地车辆数据文件夹。

datadir = fullfile(toolboxdir('想象'),'VisionData');vevicledataset.imagefilename = fullfile(datadir,vevicledataset.imagefilename);

显示数据集摘要。

摘要(车辆题目)
变量:imagefilename:295×1个字符向量阵列车辆:295×1个细胞

可视化地面真相盒分布

可视化标记的框以更好地理解数据集中存在的对象大小的范围。

将所有地面真相框组合成一个阵列。

Allboxes = VertCAT(车辆ledledataset.vehicle {:});

绘制框面积与框宽高比。

Aspectratio = Allboxes(:,3)./ Allboxes(:,4);区域= Prod(Allboxes(:,3:4),2);图分散(区域,aspectratio)xlabel(“盒子区”)ylabel(“宽高比(宽/高)”);标题(“框面积与纵横比”

该图显示了几组具有相似尺寸和形状的物体,因为该组被展开,手动选择锚箱是困难的。估算锚框的更好方法是使用群集算法,可以使用有意义的指标将类似的框分组。

估算锚箱

估算锚箱,从训练数据使用extimateanchorboxes.函数,使用交叉口(iou)距离度量。

与箱子距离度量不同,基于IOU的距离度量是框大小,与盒子尺寸增加[1]产生更大的误差。另外,使用IOU距离度量导致相似纵横比的框,并且尺寸集聚类在一起,这导致符合数据的锚框估计。

创建一个boxlabeldatastore.在车辆数据集中使用地面真相框。如果用于训练对象检测器的预处理步骤涉及调整图像的大小,请使用转换bboxresize.调整边界框中的大小boxlabeldatastore.在估计锚箱之前。

trainingdata = boxlabeldataStore(车辆题目(:,2:结束));

选择锚点的数量并估计锚盒使用extimateanchorboxes.功能。

Numanchors =.5.;[anchorboxes,meaniou] = extimateanchorboxes(TrainingData,Numanchors);锚盒
锚盒=5×221 27 87 116 67 92 43 61 86 105

选择锚点的数量是另一个培训超参数,需要使用实证分析仔细选择。用于判断估计的锚箱的一个质量措施是每个集群中盒子的平均值。这extimateanchorboxes.功能使用A.K.- 使用IOU距离度量来计算使用等式的重叠的聚类算法,1 -bboxoverlapratio(allboxes,boxincluster)

意思是
Meaniou = 0.8411.

大于0.5的平均值可确保锚盒在训练数据中的框中重叠。增加锚点的数量可以改善平均iou测量。然而,在物体检测器中使用更多锚盒也可以增加计算成本并导致过度拟合,这导致差的检测器性能差。

扫过一系列值并绘制平均iOU与锚箱数量,以测量锚点数量和平均值的权衡。

Maxnumanchors = 15;Meaniou = Zeros([Maxnumanchors,1]);锚盒=细胞(Maxnumanchors,1);为了K = 1:Maxnumanchors%估计锚和平均值。[anchorboxes {k},meaniou(k)] = viettaeanchorboxes(trainingdata,k);结尾图绘图(1:Maxnumanchors,Meaniou,'-o')ylabel(“意思是iou”)xlabel(“锚点数”) 标题(“锚点与平均iou”

使用两个锚箱导致平均值大于0.65,并且使用超过7个锚箱产生的平均IOU值的边际改善。鉴于这些结果,下一步是使用2和6之间的值训练和评估多个对象探测器。该经验分析有助于确定满足应用程序性能要求的锚盒的数量,例如检测速度或准确性。

参考

Redmon,Joseph和Ali Farhadi。“YOLO9000:更好,更快,更强。”在电脑视觉和模式识别的IEEE会议上的诉讼程序中,第7263-7271。2017年。

[1] Redmon,Joseph和Ali Farhadi。“YOLO9000:更好,更快,更强。”在2017年电脑视觉和模式识别的IEEE会议(CVPR),6517-25。檀香山,嗨:ieee,2017. https://doi.org/10.1109/cvpr.2017.690。