主要内容

yolov2OutputLayer

为YOLO v2对象检测网络创建输出层

描述

yolov2OutputLayer函数创建一个YOLOv2OutputLayer对象,它表示输出层,为您只看一次版本2 (YOLO v2)对象检测网络。输出层提供了目标对象的精细边界框位置。

创建

描述

例子

= yolov2OutputLayer (anchorBoxes创建一个YOLOv2OutputLayer对象,,表示YOLO v2对象检测网络的输出层。该层输出精炼的边界盒位置,这些位置是使用在输入处指定的一组预定义锚盒来预测的。

例子

= yolov2OutputLayer (anchorBoxes名称,值使用名称-值对和前面语法中的输入设置其他属性。将每个属性名用单引号括起来。例如,yolov2OutputLayer('名称',' yolo_Out ')创建一个名为yolo_Out的输出层。

输入参数

全部展开

锚盒的集合,指定为-by-2矩阵,其中每一行为高度宽度]。矩阵定义的高度和宽度锚箱数量。这个输入设置了AnchorBoxes属性的输出层。您可以使用聚类方法从训练数据中估计锚盒。有关更多信息,请参见根据训练数据估计锚盒

数据类型:||int8|int16|int32|int64|uint8|uint16|uint32|uint64

属性

全部展开

层名,指定为字符向量或字符串标量。为数组输入,trainNetworkassembleNetworklayerGraph,dlnetwork函数自动为层分配名称的名字设置为

数据类型:字符|字符串

此属性是只读的。

损失函数,设为的均方误差.有关损失函数的更多信息,请参见改进边界框的损失函数

此属性是只读的。

用于训练的锚盒,指定为的宽度和高度锚箱数量。此属性由输入设置anchorBoxes

数据类型:||int8|int16|int32|int64|uint8|uint16|uint32|uint64

此属性是只读的。

损失函数中的权值,指定为形式为[K1K2K3.K4]。权值通过惩罚错误的边界盒预测和错误的分类来增加网络模型的稳定性。有关loss函数中权重的更多信息,请参见改进边界框的损失函数

数据类型:||int8|int16|int32|int64|uint8|uint16|uint32|uint64

输出层的类,指定为分类向量、字符串数组、字符向量单元格数组或“汽车”.使用此名称-值对指定输入训练数据中的对象类的名称。

如果设置为“汽车”,然后软件在训练时自动设置课程。如果指定字符向量的字符串数组或单元格数组str,则软件将输出层的类设置为分类(str).默认值为“汽车”

数据类型:字符|字符串|细胞|分类

此属性是只读的。

层的输入数。这一层只接受单个输入。

数据类型:

此属性是只读的。

输入层名。这一层只接受单个输入。

数据类型:细胞

例子

全部折叠

创建带有两个锚框的YOLO v2输出层。

定义锚框的高度和宽度。

[16 16;32 32];

在训练数据中指定对象类的名称。

一会= {“汽车”“人”};

生成名为“yolo_Out”的YOLO v2输出层。

层= yolov2OutputLayer (anchorBoxes,“名字”“yolo_Out”“类”类名);

检查YOLO v2输出层属性。

layer = YOLOv2OutputLayer with properties: Name: 'yolo_Out' Hyperparameters Classes: [2x1 categorical] LossFunction: ' mean平方误差' AnchorBoxes: [2x2 double] LossFactors: [5 1 1 1]

您可以读取的值属性使用点符号层。Cl一个年代年代e年代.函数将类名存储为分类数组。

层。Cl一个年代年代e年代
ans =2 x1分类汽车人

更多关于

全部展开

提示

为了提高预测精度,你可以:

  • 用更多的图像训练网络。您可以通过数据增强来扩展训练数据集。有关如何为训练数据集应用数据增强的信息,请参见深度学习的图像预处理(深度学习工具箱)

  • 进行多尺度训练trainYOLOv2ObjectDetector函数。为此,请指定'TrainingImageSize的参数trainYOLOv2ObjectDetector用于训练网络的功能。

  • 选择适合于数据集的锚框来训练网络。你可以使用estimateAnchorBoxes函数直接从训练数据计算锚盒。

参考文献

[1]约瑟。R, S. K. Divvala, R. B. Girshick和F. Ali。“你只看一次:统一的、实时的物体检测。”在IEEE计算机视觉与模式识别会议论文集, 779 - 788页。拉斯维加斯,内华达州:CVPR, 2016。

[2]约瑟。R和f。“YOLO 9000:更好、更快、更强。”在IEEE计算机视觉与模式识别会议论文集, 6517 - 6525页。檀香山,HI: CVPR, 2017。

扩展功能

介绍了R2019a