getL2Factor
得到层可学习参数的L2正则化因子
语法
描述
返回参数名称的L2正则化因子因素
= getL2Factor (层
,parameterName
)parameterName
在层
.
对于内置层,您可以通过使用相应的属性直接获得L2正则化因子。例如,对于aconvolution2dLayer
层,语法getL2Factor(图层,'权重')
等于因子=层。WeightL2Factor
.
返回由路径指定的参数的L2正则化因子因素
= getL2Factor (层
,parameterPath
)parameterPath
.类型中的参数时使用此语法dlnetwork
对象在自定义层中。
返回参数名称的L2正则化因子因素
= getL2Factor (网
,layerName
,parameterName
)parameterName
在带有name的层中layerName
对于指定的dlnetwork
对象。
返回由路径指定的参数的L2正则化因子因素
= getL2Factor (网
,parameterPath
)parameterPath
.当参数位于嵌套层时使用此语法。
例子
可学习参数的L2正则化因子的设置和获取
设置并得到一层的一个可学习参数的L2正则化因子。
创建一个包含自定义层的层数组preluLayer
,附上实例作为支持文件。万博1manbetx要访问此层,请将此示例作为活动脚本打开。
创建一个包含自定义层的层数组preluLayer
.
层= [...imageInputLayer([28 28 1]) convolution2dLayer(5,20) batchNormalizationLayer preluLayer fullyConnectedLayer(10) softmaxLayer classificationLayer];
的L2正则化因子α
的可学习参数preluLayer
2。
layers(4) = setL2Factor(layers(4),“阿尔法”2);
查看更新的L2正则化因子。
getL2Factor(图层(4),“阿尔法”)
因子= 2
设置和获取嵌套层可学习参数的L2正则化因子
设置并获得嵌套层的一个可学习参数的L2正则化因子。
使用自定义层创建一个剩余块层residualBlockLayer
作为支持文件附在本示例中。万博1manbetx要访问此文件,请将此示例作为Live Script打开。
numFilters = 64;layer = residualBlockLayer(numFilters)
Name: " Learnable Parameters Network: [1x1 dlnetwork] State Parameters无属性。显示所有属性
查看嵌套网络的层数。
layer.Network.Layers
ans = 7x1带有层的层数组:1' conv_1' 2d Convolution 64 3x3 convolutions with stride [1 1] and padding 'same' 2' groupnorm_1' Group Normalization Group Normalization 3 'relu_1' ReLU ReLU 4 'conv_2' 2d Convolution 64 3x3 convolutions with stride [1 1] and padding 'same' 5 'groupnorm_2' Group Normalization Group Normalization 6 'add'加法按元素添加2个输入7 'relu_2' ReLU ReLU
设置可学习参数的L2正则化因子“重量”
层的“conv_1”
2 .使用setL2Factor
函数。
因子= 2;层= setL2Factor(层,“网络/ conv_1 /重量”、因素);
方法获取更新的L2正则化因子getL2Factor
函数。
getL2Factor(图层,“网络/ conv_1 /重量”)
因子= 2
的L2正则化因子dlnetwork
可学的参数
设置并得到a的一个可学习参数的L2正则化因子dlnetwork
对象。
创建一个dlnetwork
对象。
图层= [imageInputLayer([28 28 1],“归一化”,“没有”,“名字”,“在”20岁的)convolution2dLayer (5“名字”,“conv”) batchNormalizationLayer (“名字”,bn的) reluLayer (“名字”,“relu”) fullyConnectedLayer (10“名字”,“俱乐部”) softmaxLayer (“名字”,“sm”));lgraph = layerGraph(图层);Dlnet = dlnetwork(lgraph);
的L2正则化因子“重量”
的卷积层的可学习参数为2setL2Factor
函数。
因子= 2;dlnet = setL2Factor(dlnet,“conv”,“重量”、因素);
方法获取更新的L2正则化因子getL2Factor
函数。
getL2Factor(dlnet)“conv”,“重量”)
因子= 2
设置和获取L2正则化因子嵌套dlnetwork
可学的参数
中嵌套层的可学习参数的L2正则化因子dlnetwork
对象。
创建一个dlnetwork
对象,其中包含自定义层residualBlockLayer
作为支持文件附在本示例中。万博1manbetx要访问此文件,请将此示例作为Live Script打开。
inputSize = [224 224 3];numFilters = 32;numClasses = 5;图层= [imageInputLayer(inputSize,“归一化”,“没有”,“名字”,“在”numFilters) convolution2dLayer(7日,“步”2,“填充”,“相同”,“名字”,“conv”) groupNormalizationLayer (所有渠道的,“名字”,“gn”) reluLayer (“名字”,“relu”) maxPooling2dLayer (3“步”2,“名字”,“马克斯”) residualBlockLayer (numFilters“名字”,“res1”) residualBlockLayer (numFilters“名字”,“它”) residualBlockLayer (2 * numFilters,“步”2,“IncludeSkipConvolution”,真的,“名字”,“res3”) residualBlockLayer (2 * numFilters,“名字”,“res4”) residualBlockLayer (4 * numFilters,“步”2,“IncludeSkipConvolution”,真的,“名字”,“res5”) residualBlockLayer (4 * numFilters,“名字”,“res6”) globalAveragePooling2dLayer (“名字”,“差距”) fullyConnectedLayer (numClasses“名字”,“俱乐部”) softmaxLayer (“名字”,“sm”));Dlnet = dlnetwork(层);
的可学的
的属性dlnetwork
对象是一个包含网络可学习参数的表。该表在单独的行中包含嵌套层的参数。查看该层的可学习参数“res1”
.
learnables = dlnet.Learnables;Idx =可学习物。层= =“res1”;可学的(idx:)
ans =8×3表层参数值______ ____________________________ ___________________ "res1" "Network/groupnorm_1/ Weights" {3x3x32x32 dlarray} "res1" "Network/groupnorm_1/Offset" {1x1x32 dlarray} "res1" "Network/groupnorm_1/Scale" {1x1x32 dlarray} "res1" "Network/groupnorm_1/ Weights" {3x3x32x32 dlarray} "res1" "Network/conv_2/Bias" {1x1x32 dlarray} "res1" "Network/conv_2/Bias" {1x1x32 dlarray} "res1" "Network/groupnorm_2/Offset" {1x1x32 dlarray} "res1" "Network/groupnorm_2/Offset" {1x1x32 dlarray} "res1" "Network/groupnorm_2/Offset" {1x1x32 dlarray} "res1" "Network/groupnorm_2/Offset" {1x1x32 dlarray} "res1" "Network/groupnorm_2/Offset" {1x1x32 dlarray} "res1" "Network/groupnorm_2/Offset" {1x1x32 dlarray} "res1" "Network/groupnorm_2/Offset" {1x1x32 dlarray} "res1" "Network/groupnorm_2/Offset" {1x1x32 dlarray} "res1" "Network/groupnorm_2/Offset"
对于图层“res1”
,设置可学习参数的L2正则化因子“重量”
层的“conv_1”
2 .使用setL2Factor
函数。
因子= 2;dlnet = setL2Factor(dlnet,“res1 /网络/ conv_1 /重量”、因素);
方法获取更新的L2正则化因子getL2Factor
函数。
getL2Factor(dlnet)“res1 /网络/ conv_1 /重量”)
因子= 2
输入参数
层
- - - - - -输入层
标量层
对象
输入层,指定为标量层
对象。
parameterName
- - - - - -参数名称
特征向量|字符串标量
参数名称,指定为字符向量或字符串标量。
parameterPath
- - - - - -嵌套层中参数的路径
字符串标量|特征向量
嵌套层中参数的路径,指定为字符串标量或字符向量。嵌套层是一个自定义层,它本身将层图定义为一个可学习的参数。
如果输入为getL2Factor
是嵌套层,那么参数路径有什么形式“propertyName / layerName / parameterName”
,地点:
propertyName
属性的名称是否包含dlnetwork
对象layerName
的层名是dlnetwork
对象parameterName
参数名称
如果嵌套层有多个级别,则使用表单指定每个级别“propertyName1 / layerName1 /…/ propertyNameN / layerNameN / parameterName”
,在那里propertyName1
而且layerName1
对应层中的输入到getL2Factor
功能,随后的部分对应于更深的层次。
例子:对于层输入getL2Factor
,小路“网络/ conv1 /重量”
指定了“重量”
具有名称的层的参数“conv1”
在dlnetwork
给出的对象层。网络
.
如果输入为getL2Factor
是一个dlnetwork
对象与所需参数在一个嵌套层中,则参数路径具有形式“layerName1 / propertyName / layerName / parameterName”
,地点:
layerName1
在输入层的名称吗dlnetwork
对象propertyName
该层的属性是否包含dlnetwork
对象layerName
的层名是dlnetwork
对象parameterName
参数名称
如果嵌套层有多个级别,则使用表单指定每个级别“layerName1 / propertyName1 /…/ layerNameN / propertyNameN / layerName / parameterName”
,在那里layerName1
而且propertyName1
对应层中的输入到getL2Factor
功能,随后的部分对应于更深的层次。
例子:为dlnetwork
输入getL2Factor
,小路“res1 /网络/ conv1 /重量”
指定了“重量”
具有名称的层的参数“conv1”
在dlnetwork
给出的对象层。网络
,在那里层
这个层有名字吗“res1”
在输入网络中网
.
数据类型:字符
|字符串
网
- - - - - -神经网络
dlnetwork
对象
神经网络,指定为adlnetwork
对象。
layerName
- - - - - -层的名字
字符串标量|特征向量
层名,指定为字符串标量或字符向量。
数据类型:字符
|字符串
输出参数
因素
- L2正则化因子
负的标量
参数的L2正则化因子,作为非负标量返回。
该软件将该因子乘以全局L2正则化因子,以确定指定参数的L2正则化。例如,如果因素
= 2,则指定参数的L2正则化是当前全局L2正则化的两倍。类指定的设置,该软件确定全局L2正则化trainingOptions
函数。
版本历史
在R2017b中引入
第一MATLAB
海脂循环匹配函数对应求解MATLAB:
Esegui il commanmando inserendolo nella finestra di commanmando MATLAB。我的浏览器web不支持和MATLAB万博1manbetx。
您也可以从以下列表中选择一个网站:
如何获得最佳的网站性能
选择中国站点(中文或英文)以获得最佳站点性能。其他MathWorks国家站点没有针对您所在位置的访问进行优化。