leakyrelu
描述
漏水的解决线性单元(ReLU)激活操作执行非线性阈值操作,任何输入值小于零乘以一个固定的比例因子。
这个操作是等价的
请注意
这个函数适用于破ReLU操作<一个href="//www.tianjin-qmedu.com/es/es/help/deeplearning/ref/dlarray.html">dlarray
数据。如果你想应用内漏水的ReLU激活<一个href="//www.tianjin-qmedu.com/es/es/help/deeplearning/ref/nnet.cnn.layergraph.html">layerGraph
对象或<一个href="//www.tianjin-qmedu.com/es/es/help/deeplearning/ref/nnet.cnn.layer.layer.html">层
数组,使用以下层:
计算漏ReLU激活的输入Y
= leakyrelu (<一个href="//www.tianjin-qmedu.com/es/es/help/deeplearning/ref/#mw_c2dfd3c0-23ae-4595-a3b7-987c63934bbb_sep_mw_6f734774-5538-44ff-ad05-7e744f97893a" class="intrnllnk">X
)X
通过应用一个阈值操作。中所有的值X
小于零乘以违约比例因子0.01
。
指定比例因子对破ReLU操作。Y
= leakyrelu (<一个href="//www.tianjin-qmedu.com/es/es/help/deeplearning/ref/#mw_c2dfd3c0-23ae-4595-a3b7-987c63934bbb_sep_mw_6f734774-5538-44ff-ad05-7e744f97893a" class="intrnllnk">X
,<一个href="//www.tianjin-qmedu.com/es/es/help/deeplearning/ref/#mw_e074da10-6b8b-40f6-809c-f95d7102f449" class="intrnllnk">scaleFactor
)
例子
输入参数
输出参数
扩展功能
版本历史
介绍了R2019b
另请参阅
dlarray
|<年代pan itemscope itemtype="//www.tianjin-qmedu.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">dlconv
|<年代pan itemscope itemtype="//www.tianjin-qmedu.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">batchnorm
|<年代pan itemscope itemtype="//www.tianjin-qmedu.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">线性整流函数(Rectified Linear Unit)
|<年代pan itemscope itemtype="//www.tianjin-qmedu.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">gelu
|<年代pan itemscope itemtype="//www.tianjin-qmedu.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">dlgradient
|<年代pan itemscope itemtype="//www.tianjin-qmedu.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">dlfeval