主要内容

漏滤网

泄漏整流线性单元(Relu)层

描述

泄漏的Relu层执行阈值操作,其中任何输入值小于零的乘以固定标量。

此操作相当于:

F X = { X X 0. S. C 一种 L. E. * X X < 0.

创建

描述

=漏滤网返回泄漏的Relu层。

=漏滤泡(规模用标量乘法器返回泄漏的Relu层,用于等于的负输入规模

例子

=漏滤泡(___,'名称',名称返回泄漏的Relu层并设置可选<一种href="//www.tianjin-qmedu.com/help/deeplearning/ref/nnet.cnn.layer.leakyrelulayer.html" class="intrnllnk">名称财产。

特性

展开全部

泄漏的ref.

用于负输入值的标量乘数,指定为数字标量。

例子:0.4

图层名称,指定为字符向量或字符串标量。要在图层图中包含一个图层,必须指定非空,唯一的图层名称。如果您使用该图层培训系列网络名称设定为'',然后软件会自动为培训时间分配给图层的名称。

数据类型:char|细绳

图层的输入数。此图层仅接受单个输入。

数据类型:双倍的

图层的输入名称。此图层仅接受单个输入。

数据类型:细胞

图层的输出数。此图层仅具有单个输出。

数据类型:双倍的

图层的输出名称。此图层仅具有单个输出。

数据类型:细胞

例子

全部收缩

使用名称创建泄漏的Relu层'泄漏1'对于负输入等于0.1的标量乘法器。

层=漏滤疹(0.1,'名称'那'泄漏1')
Layer = LeakyRelayer具有属性:名称:'泄漏1'Quand参数缩放:0.1000

在a中包括漏泄漏的Relu层大批。

图层= [ImageInputLayer([28 28 1])卷积2dlayer(3,16)BatchnormalizationLayer LeaceLyelulayer MaxPooling2Dlayer(2,'走吧',2)卷积2dlayer(3,32)BatchnormalizationLayer Leacernertululayer全连接列(10)SoftMaxLayer分类层]
图层= 11x1层阵列,带图层:1''图像输入28x28x1图像与“Zerocenter”归一化2''卷积16 3x3带有升序[1 1]和填充[0 0 0 0] 3'批量归一化批量归一化4''泄漏释放泄漏释放尺度0.01 5''最大池2x2最大汇集步进[2 2]和填充[0 0 0 0] 6''卷积32 3x3带脚步的卷曲[11]和填充[0 0 0 0] 7''批量归一化批量归一化8''漏释放refru泄漏relu与刻度0.01 9''完全连接的10完全连接的层10''softmax softmax 11''分类输出crossentropyex

                   

参考

[1] Maas,Andrew L.,Awni Y. Hannun,以及安德鲁Y. Ng。“整流非线性改善神经网络声学模型。”在Proc。ICML.,卷。30,不。2013年。

扩展能力

C / C ++代码生成
使用MATLAB®Coder™生成C和C ++代码。

GPU代码生成
使用GPU Coder™为NVIDIA®GPU生成CUDA®代码。

在R2017B中介绍