帮助中心帮助中心
应用修正线性单元激活
自从R2019b
Y = relu (X)
修正的线性单元(ReLU)激活操作执行非线性阈值操作,任何输入值小于零设置为零。
这个操作是等价的
f ( x ) = { x , x > 0 0 , x ≤ 0。
请注意
这个函数ReLU操作适用于dlarray数据。如果你想应用中的ReLU激活layerGraph对象或层数组,使用以下层:
dlarray
layerGraph
层
reluLayer
例子
Y= relu (X)计算输入的ReLU激活X通过应用一个阈值操作。中所有的值X小于零设置为零。
Y= relu (X)
Y
X
全部折叠
创建一个格式化的dlarray对象包含了一批128 28-by-28图像3通道。指定的格式“SSCB”(空间、空间、通道、批)。
“SSCB”
miniBatchSize = 128;inputSize = 28 [28];numChannels = 3;X =兰特(inputSize (1) inputSize (2), numChannels, miniBatchSize);X = dlarray (X,“SSCB”);
视图的大小和格式输入数据。
大小(X)
ans =1×4128年28日28日3
dim (X)
ans = ' SSCB '
应用ReLU操作使用线性整流函数(Rectified Linear Unit)函数。
线性整流函数(Rectified Linear Unit)
Y = relu (X);
视图的大小和格式输出。
大小(Y)
退去(Y)
输入数据,指定为一个格式化的或未格式化dlarray对象。
ReLU激活,返回dlarray。输出Y有相同的底层数据类型作为输入X。
如果输入数据X是一个格式化的dlarray,Y有相同的尺寸格式吗X。如果没有一个格式化的输入数据dlarray,Y是一个非格式化dlarray相同的尺寸订单作为输入数据。
使用笔记和限制:
当输入参数X是一个dlarray基础数据的类型gpuArray,这个函数在GPU上运行。
gpuArray
有关更多信息,请参见运行在GPU MATLAB函数(并行计算工具箱)。
介绍了R2019b
dlarray|dlconv|batchnorm|leakyrelu|gelu|dlgradient|dlfeval
dlconv
batchnorm
leakyrelu
gelu
dlgradient
dlfeval
您有一张这本Beispiels geanderte版本。您这本Beispiel麻省理工学院古老Anderungen offnen吗?
您有窗户的链接geklickt,汪汪汪der diesem MATLAB-Befehl entspricht:
在das MATLAB-Befehlsfenster Fuhren您窝Befehl军队Eingabe来自。浏览器unterstutzen MATLAB-Befehle。
选择一个网站
选择一个网站翻译内容,看到当地事件和提供。根据你的位置,我们建议您选择:。
你也可以从下面的列表中选择一个网站:
选择中国网站(中文或英文)最佳站点的性能。其他MathWorks国家网站不优化的访问你的位置。
联系你当地的办公室