主要内容

convolution1dLayer

一维卷积层

自从R2021b

    描述

    一个一维卷积层滑动卷积过滤器适用于一维输入。层可变输入通过过滤器的输入和计算权重的点积和输入,然后添加一个偏差项。

    层的尺寸可变取决于层输入:

    • 时间序列和向量序列的输入(数据与三维空间的通道,观察,时间和步骤),可变层在时间维度。

    • 对于一维图像输入(数据与三维空间对应像素,渠道,和观察),层可变空间维度。

    • 对于一维图像序列输入(数据与四维空间对应像素,渠道,观察,和时间步长),层可变空间维度。

    创建

    描述

    例子

    = convolution1dLayer (filterSize,numFilters)创建了一个一维卷积层和设置FilterSizeNumFilters属性。

    = convolution1dLayer (filterSize,numFilters,名称=值)还设置可选,DilationFactor,NumChannels,参数和初始化,学习速率、正规化,的名字使用一个或多个属性名称参数。指定输入填充,使用填充名称-值参数。例如,convolution1dLayer(96填充= 1)创建了一个一维卷积与96过滤器的大小11层,并指定填充大小1的左和右层输入。

    输入参数

    全部展开

    名称-值参数

    指定可选的双参数作为Name1 = Value1,…,以=家,在那里的名字参数名称和吗价值相应的价值。名称-值参数必须出现在其他参数,但对的顺序无关紧要。

    例子:convolution1dLayer(96填充= 1)创建了一个一维卷积与96过滤器的大小11层,并指定填充大小1的左和右层输入。

    填充适用于输入,指定为以下之一:

    • “相同”——应用填充,这样大小的输出装天花板(inputSize /步),在那里inputSize是输入的长度。当1,输出是相同的大小作为输入。

    • “因果”——左填充应用于输入,等于(FilterSize - 1) * DilationFactor。当1,输出是相同的大小作为输入。

    • 非负整数深圳——添加填充的大小深圳两端的输入。

    • 向量(l r)非负整数的加衬垫的大小l左边和r右边的输入。

    例子:填充= (2 - 1)添加填充大小2左边和大小1右边的输入。

    数据类型:||int8|int16|int32|int64|uint8|uint16|uint32|uint64|字符|字符串

    属性

    全部展开

    卷积

    这个属性是只读的。

    宽度的过滤器,指定为一个正整数。

    数据类型:||int8|int16|int32|int64|uint8|uint16|uint32|uint64

    这个属性是只读的。

    的过滤器,指定为一个正整数。这个号码对应的层神经元数量输入连接到同一个地区。这个参数决定渠道的数量(特征图)层的输出。

    数据类型:||int8|int16|int32|int64|uint8|uint16|uint32|uint64

    步长为遍历输入,指定为一个正整数。

    数据类型:||int8|int16|int32|int64|uint8|uint16|uint32|uint64

    因素扩张卷积(也称为深黑色的卷积),指定为一个正整数。

    使用扩张增加接受域的卷积(输入层可以看到的面积)的层不增加参数的数量或计算。

    层扩展每个滤芯过滤器插入0之间。膨胀系数确定的步长采样输入,或等价,滤波器的upsampling因素。它对应于一个有效的过滤器的大小(FilterSize - 1) * DilationFactor + 1。例如,一个1×3过滤器的膨胀系数2相当于1-by-5过滤与0之间的元素。

    数据类型:||int8|int16|int32|int64|uint8|uint16|uint32|uint64

    大小的衬垫适用于每一方的输入,指定为一个向量(l r)两个非负整数,l填充左边和吗r向右填充应用。

    当您创建一个层,使用填充名称-值参数来指定填充大小。

    数据类型:

    这个属性是只读的。

    方法来确定填充大小,指定为以下之一:

    • “手动”使用指定的整数或向量-垫填充

    • “相同”——应用填充,这样大小的输出装天花板(inputSize /步),在那里inputSize是输入的长度。当1输入,输出是一样的。

    • “因果”——应用因果填充。与填充垫输入左边的大小(FilterSize - 1) * DilationFactor

    指定层填充,使用填充名称-值参数。

    数据类型:字符

    这个属性是只读的。

    板数据值,指定为以下之一:

    PaddingValue 描述 例子
    标量 垫与指定的标量值。

    ( 3 1 4 ] ( 0 0 3 1 4 0 0 ]

    “symmetric-include-edge” 垫使用镜像的输入值,包括边缘值。

    ( 3 1 3 ] ( 1 3 3 1 4 4 1 ]

    “symmetric-exclude-edge” 垫使用镜像的输入值,排除边缘值。

    ( 3 1 4 ] ( 4 1 3 1 4 1 3 ]

    “复制” 垫使用重复的边界元素的输入。

    ( 3 1 3 ] ( 3 3 3 1 4 4 4 ]

    数据类型:||int8|int16|int32|int64|uint8|uint16|uint32|uint64|字符|字符串

    这个属性是只读的。

    输入通道的数量,指定为以下之一:

    • “汽车”——自动确定培训时间输入通道的数量。

    • 正整数——配置层指定数量的输入通道。NumChannels和的频道数层输入数据必须匹配。例如,如果输入是一个RGB图像NumChannels必须是3。如果输入是输出的卷积和16层过滤器,然后NumChannels必须是16。

    数据类型:||int8|int16|int32|int64|uint8|uint16|uint32|uint64|字符|字符串

    参数和初始化

    初始化权重函数,指定为以下之一:

    • “glorot”——初始化权重Glorot初始值设定项[1](也称为Xavier初始化)。独立Glorot初始化一个均匀分布的样本均值为零,方差2 / (numIn + numOut),在那里numIn = FilterSize * NumChannelsnumOut = FilterSize * NumFilters

    • “他”——初始化权重的初始值设定项[2]。他初始化样本正态分布均值为零,方差2 / numIn,在那里numIn = FilterSize * NumChannels

    • “narrow-normal”——初始化权重独立抽样从正态分布的均值为零,标准差为0.01。

    • “零”——初始化权重为零。

    • “的”——初始化权重的。

    • 函数处理——使用一个自定义函数初始化权重。如果你指定一个函数处理,那么必须表单的功能重量= func(深圳),在那里深圳权重的大小。例如,看到的指定自定义权重的初始化函数

    层只初始化时的重量权重属性是空的。

    数据类型:字符|字符串|function_handle

    函数来初始化偏见,指定为以下之一:

    • “零”——初始化与零偏差。

    • “的”——初始化偏见的。

    • “narrow-normal”——初始化倾向独立抽样从正态分布的均值为零,标准差为0.01。

    • 函数处理与一个自定义函数,初始化偏见。如果你指定一个函数处理,那么必须表单的功能偏见= func(深圳),在那里深圳偏差的大小。

    层只初始化时的偏见偏见属性是空的。

    数据类型:字符|字符串|function_handle

    层权重的转置卷积操作,指定为一个FilterSize——- - - - - -NumChannels——- - - - - -numFilters数字数组或[]

    层权重可学的参数。您可以指定权重的初始值直接使用权重层的属性。当你训练一个网络,如果权重属性层的非空的trainNetwork使用权重属性的初始值。如果权重属性是空的,那么trainNetwork使用指定的初始化程序WeightsInitializer层的属性。

    数据类型:|

    层偏见的转置卷积操作,指定为1×-NumFilters数字数组或[]

    层偏差是可学的参数。当你训练一个神经网络,如果偏见非空的,那么trainNetwork使用偏见属性的初始值。如果偏见是空的,然后trainNetwork使用指定的初始化程序BiasInitializer

    数据类型:|

    学习速率、正规化

    学习速率因子权重,指定为负的标量。

    软件由全球学习速率繁殖这个因素确定权重的学习速率这一层。例如,如果WeightLearnRateFactor2,然后在这一层权值的学习速率是当前全球学习速率的两倍。全球学习速率决定了基于的软件设置您指定使用trainingOptions函数。

    数据类型:||int8|int16|int32|int64|uint8|uint16|uint32|uint64

    学习速率因子的偏见,指定为负的标量。

    软件由全球学习速率繁殖这个因素来确定学习速率的偏见在这一层。例如,如果BiasLearnRateFactor2,那么学习速率的偏见层是当前全球学习速率的两倍。全球学习速率决定了基于的软件设置您指定使用trainingOptions函数。

    数据类型:||int8|int16|int32|int64|uint8|uint16|uint32|uint64

    l2正则化因子权重,指定为负的标量。

    全球的软件增加这个因素l2正则化因子来确定l2正则化这一层的权重。例如,如果WeightL2Factor2,那么l2正则化这一层的权重是全球的两倍l2正则化因子。您可以指定全球l2正则化因子使用trainingOptions函数。

    数据类型:||int8|int16|int32|int64|uint8|uint16|uint32|uint64

    l2正则化因子的偏见,指定为负的标量。

    全球的软件增加这个因素l2正则化因子来确定l2在这一层正规化的偏见。例如,如果BiasL2Factor2,那么l2正规化的偏见这一层是全球的两倍l2正则化因子。决定了全球的软件l2正则化因子的基础上,设置您指定使用trainingOptions函数。

    数据类型:||int8|int16|int32|int64|uint8|uint16|uint32|uint64

    图层名称,指定为一个特征向量或字符串标量。为数组输入,trainNetwork,assembleNetwork,layerGraph,dlnetwork函数自动分配名称层的名称

    数据类型:字符|字符串

    这个属性是只读的。

    输入层的数量。这一层只接受一个输入。

    数据类型:

    这个属性是只读的。

    输入层的名称。这一层只接受一个输入。

    数据类型:细胞

    这个属性是只读的。

    输出层的数量。这一层只有一个输出。

    数据类型:

    这个属性是只读的。

    输出层的名称。这一层只有一个输出。

    数据类型:细胞

    例子

    全部折叠

    创建一个一维卷积11层96过滤器的宽度。

    层= convolution1dLayer (96)
    层= Convolution1DLayer属性:名称:“Hyperparameters FilterSize: 11 NumChannels:“汽车”NumFilters: 96步:1 DilationFactor: 1 PaddingMode:“手动”PaddingSize: [0 0] PaddingValue: 0可学的参数权重:[]偏见:[]显示所有属性

    包括一维卷积层中数组中。

    层= [sequenceInputLayer(3,最小长度= 20)convolution1dLayer (96) reluLayer globalMaxPooling1dLayer fullyConnectedLayer (10) softmaxLayer classificationLayer]
    层x1 = 7层阵列层:1“序列输入序列与三维输入2”一维卷积96 11旋转步1和填充[0 0]3”ReLU ReLU 4”一维全球最大池一维全球最大池5“完全连接10完全连接层6”Softmax Softmax crossentropyex 7”分类输出

    算法

    全部展开

    引用

    [1]Glorot,泽维尔,Yoshua Bengio。“理解的难度训练前馈神经网络。”在《十三人工智能国际会议上和统计,249 - 356。意大利撒丁岛:AISTATS, 2010。https://proceedings.mlr.press/v9/glorot10a/glorot10a.pdf

    [2]他开明、象屿张任Shaoqing,剑太阳。“深深入整流器:超越人类表现ImageNet分类。”在学报2015年IEEE计算机视觉国际会议,1026 - 1034。华盛顿特区:IEEE计算机视觉的社会,2015年。https://doi.org/10.1109/ICCV.2015.123

    版本历史

    介绍了R2021b