主要内容

剥离

整流线性单元(Relu)层

描述

Relu层对输入的每个元素执行阈值操作,其中任何小于零的值被设置为零。

此操作相当于

F X 的) = { X X 0. 0. X < 0.

创建

描述

= rululayer.创建一个Relu层。

例子

= rululayer('name',姓名的)创建Relu层并设置可选的层姓名属性使用名称值对。例如,Rubulayer('姓名','relu1')使用名称创建一个Relu层'relu1'

特性

展开全部

层名,指定为字符向量或字符串标量。为阵列输入,Trainnetwork.assembleNetwork分层图, 和dlnetwork.函数自动将名称分配给图层姓名设置''

数据类型:char|细绳

此属性是只读的。

层的输入数。此图层仅接受单个输入。

数据类型:双倍的

此属性是只读的。

图层的输入名称。此图层仅接受单个输入。

数据类型:细胞

此属性是只读的。

图层的输出次数。此图层仅具有单个输出。

数据类型:双倍的

此属性是只读的。

输出层的名称。此图层仅具有单个输出。

数据类型:细胞

例子

全部收缩

使用名称创建Relu层'relu1'

tillay = rululayer('姓名''relu1'的)
TALLER =具有属性的累积器:名称:'relu1'

包含一个ReLU层大批。

层= [......ImageInputLayer([28 28 1])卷积2dlayer(5,20)rululayer maxpooling2dlayer(2,'走吧',2)全连接层(10)SoftMaxLayer分类层]
图层数组:1”的形象输入28 x28x1图像zerocenter正常化2”卷积20 5 x5旋转步[1]和填充[0 0 0 0]3”ReLU ReLU 4”马克斯池2 x2马克斯池步(2 - 2)和填充[0 0 0 0]5“完全连接10完全连接层6”Softmax Softmax crossentropyex 7”分类输出

更多关于

展开全部

参考文献

[1] Nair,Vinod和Geoffrey E. Hinton。“整流的线性单位改善了受限制的Boltzmann机器。”在第27届国际机械学习会议(ICML-10)的诉讼程序, 807 - 814页。2010.

扩展能力

C / C ++代码生成
使用MATLAB®Coder™生成C和C ++代码。

GPU代码生成
使用GPU Coder™为NVIDIA®GPU生成CUDA®代码。

在R2016A介绍