文件帮助中心文件
整流线性单元(Relu)层
Relu层对输入的每个元素执行阈值操作,其中任何小于零的值被设置为零。
此操作相当于
F ( X 的) = { X 那 X ≥ 0. 0. 那 X < 0. 。
第= rululayer.
tillay = rululayer('name',name)
层= rululayer.创建一个Relu层。
层= rululayer.
层
例子
层= rululayer('name',姓名的)创建Relu层并设置可选的层姓名属性使用名称值对。例如,Rubulayer('姓名','relu1')使用名称创建一个Relu层'relu1'。
层= rululayer('name',姓名的)
姓名
Rubulayer('姓名','relu1')
'relu1'
展开全部
''
层名,指定为字符向量或字符串标量。为层阵列输入,Trainnetwork.那assembleNetwork那分层图, 和dlnetwork.函数自动将名称分配给图层姓名设置''。
Trainnetwork.
assembleNetwork
分层图
dlnetwork.
数据类型:char|细绳
char
细绳
numinputs.
1
此属性是只读的。
层的输入数。此图层仅接受单个输入。
数据类型:双倍的
双倍的
输入名称
{'在'}
图层的输入名称。此图层仅接受单个输入。
数据类型:细胞
细胞
numoutputs.
图层的输出次数。此图层仅具有单个输出。
OutputNames
{'出去'}
输出层的名称。此图层仅具有单个输出。
全部收缩
使用名称创建Relu层'relu1'。
tillay = rululayer('姓名'那'relu1'的)
TALLER =具有属性的累积器:名称:'relu1'
包含一个ReLU层层大批。
层= [......ImageInputLayer([28 28 1])卷积2dlayer(5,20)rululayer maxpooling2dlayer(2,'走吧',2)全连接层(10)SoftMaxLayer分类层]
图层数组:1”的形象输入28 x28x1图像zerocenter正常化2”卷积20 5 x5旋转步[1]和填充[0 0 0 0]3”ReLU ReLU 4”马克斯池2 x2马克斯池步(2 - 2)和填充[0 0 0 0]5“完全连接10完全连接层6”Softmax Softmax crossentropyex 7”分类输出
卷积和批量归一化层通常之后是由Relu层指定的整流线性单元(Relu)之后的非线性激活功能。Relu层对每个元素执行阈值操作,其中小于零的任何输入值设置为零,即,
Relu层不会改变其输入的大小。
还有其他非线性激活图层执行不同的操作,可以提高某些应用程序的网络精度。有关激活图层列表,请参阅激活层。
[1] Nair,Vinod和Geoffrey E. Hinton。“整流的线性单位改善了受限制的Boltzmann机器。”在第27届国际机械学习会议(ICML-10)的诉讼程序, 807 - 814页。2010.
Trainnetwork.|BatchnormalizationLayer.|漏滤网|思考丛林|Xu Shishlayer.|深网络设计师
BatchnormalizationLayer.
漏滤网
思考丛林
Xu Shishlayer.
您拥有此示例的修改版本。您是否希望使用您的编辑打开此示例?
您单击了与此MATLAB命令对应的链接:
在MATLAB命令窗口中输入它来运行命令。Web浏览器不支持MATLAB命令。万博1manbetx
选择一个网站,以便在可用的地方进行翻译内容,并查看本地活动和优惠。根据您的位置,我们建议您选择:。
您还可以从以下列表中选择一个网站:
选择中国网站(以中文或英文)以获得最佳网站性能。其他MathWorks国家网站未优化您所在地的访问。
联系您当地的办公室