主要内容

Relulayer

整流线性单元(Relu)层

描述

Relu层对输入的每个元素执行阈值操作,其中任何小于零的值都设置为零。

此操作等同于

F (( X = { X ,,,, X 0 0 ,,,, X < 0

创建

描述

= relulayer创建一个relu层。

例子

= relulayer('名称',姓名创建一个relu层并设置可选的姓名使用名称值对的属性。例如,relulayer(“名称”,'relu1')创建一个名称的relu层'relu1'

特性

展开全部

图层名称,指定为字符向量或字符串标量。为了数组输入,火车网,,,,汇编工作,,,,LayerGraph, 和dlnetwork功能自动将名称分配给具有名称的图层''

数据类型:char|细绳

此属性仅阅读。

该层的输入数量。该层仅接受单个输入。

数据类型:双倍的

此属性仅阅读。

层的输入名称。该层仅接受单个输入。

数据类型:细胞

此属性仅阅读。

层的输出数。该层仅具有单个输出。

数据类型:双倍的

此属性仅阅读。

层的输出名称。该层仅具有单个输出。

数据类型:细胞

例子

全部收缩

创建一个名称的relu层'relu1'

layer = relulayer('姓名',,,,'relu1'
layer =带有属性的relulayer:name:'relu1'

大批。

层= [...imageInputlayer([28 28 1])卷积2Dlayer(5,20)Relulayer MaxPooling2Dlayer(2,“大步”,2)完整连接的layerer(10)SoftMaxlayer分类器]
层= 7x1层阵列,带有层:1''图像输入28x28x1图像,带有“ zerecenter”归一化2''卷积20 5x5卷积[1 1]和填充[0 0 0 0 0 0] 3''relu 4'relu 4''max max合并2x2 max plies [2 2]和填充[0 0 0 0] 5''完全连接10完全连接的层6''softmax softmax 7''分类crossentropyex

更多关于

展开全部

参考

[1] Nair,Vinod和Geoffrey E. Hinton。“整流的线性单元改善了受限的玻尔兹曼机器。”在第27届机器学习国际会议论文集(ICML-10),第807-814页。2010年。

扩展功能

C/C ++代码生成
使用MATLAB®CODER™生成C和C ++代码。

GPU代码生成
使用GPU CODER™为NVIDIA®GPU生成CUDA®代码。

版本历史记录

在R2016a中引入