应用泄漏整流线性单元激活
漏泄整流线性单元(RELU)激活操作执行一非线性阈值操作,其中小于零的任何输入值由固定比例因子相乘。
此操作等效于
此功能适用泄漏RELU操作<一个href="//www.tianjin-qmedu.com/help/deeplearning/ref/dlarray.html">dlarray
数据。如果你想申请内漏RELU激活<一个href="//www.tianjin-qmedu.com/help/deeplearning/ref/nnet.cnn.layergraph.html">layerGraph
对象或<一个href="//www.tianjin-qmedu.com/help/deeplearning/ref/nnet.cnn.layer.layer.html">层
阵列,使用下列层:
计算输入的漏泄RELU激活DLY
= leakyrelu(<一个href="#mw_0e340f08-9160-4d7c-afe5-fae5c32e0218" class="intrnllnk">DLX
)DLX
通过将阈值操作。在所有的值DLX
小于零通过的默认比例因子相乘0.01
。
指定泄漏RELU操作的比例因子。DLY
= leakyrelu(<一个href="#mw_0e340f08-9160-4d7c-afe5-fae5c32e0218" class="intrnllnk">DLX
,<一个href="#mw_e074da10-6b8b-40f6-809c-f95d7102f449" class="intrnllnk">比例因子
)
batchnorm
|<小号pan itemscope itemtype="//www.tianjin-qmedu.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">dlarray
|<小号pan itemscope itemtype="//www.tianjin-qmedu.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">dlconv
|<小号pan itemscope itemtype="//www.tianjin-qmedu.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">dlfeval
|<小号pan itemscope itemtype="//www.tianjin-qmedu.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">dlgradient
|<小号pan itemscope itemtype="//www.tianjin-qmedu.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">RELU