leakyReluLayer
漏洩 (leaky) 正規化線形ユニット (ReLU) 層
説明
leaky ReLU 層は、しきい値処理を実行し、入力値がゼロよりも小さい場合は固定のスカラーによって乗算します。
この処理は次の式と同等です。
作成
プロパティ
例
参照
[1] Maas, Andrew L., Awni Y. Hannun, and Andrew Y. Ng. "Rectifier nonlinearities improve neural network acoustic models." In Proc. ICML, vol. 30, no. 1. 2013.