泄漏整流线性单元(Relu)层
泄漏的Relu层执行阈值操作,其中任何输入值小于零的乘以固定标量。
此操作相当于:
返回泄漏的Relu层。层
=漏滤网
用标量乘法器返回泄漏的Relu层,用于等于的负输入层
=漏滤泡(规模
)规模
。
,'名称',层
=漏滤泡(名称
)返回泄漏的Relu层并设置可选<一种href="//www.tianjin-qmedu.com/help/deeplearning/ref/nnet.cnn.layer.leakyrelulayer.html" class="intrnllnk">名称
财产。
[1] Maas,Andrew L.,Awni Y. Hannun,以及安德鲁Y. Ng。“整流非线性改善神经网络声学模型。”在