主要内容

layrecnet

层递归神经网络

描述

例子

layrecnet (layerDelays,hiddenSizes,trainFcn)将这些参数:

  • 行向量增加0或积极的延迟,layerDelays

  • 行向量的一个或多个隐层大小,hiddenSizes

  • 反向传播训练函数,trainFcn

并返回一个递归神经网络层。

层递归神经网络类似于前馈网络,除了每一层都有一个与一个与之相关联的抽头延迟复发性联系。这使得网络有无限动力响应时间序列输入数据。这个网络类似于时间延迟(timedelaynet)和分布式延迟(distdelaynet)神经网络,它有有限的输入响应。

例子

全部折叠

这个例子展示了如何使用一层递归神经网络来解决一个简单的时间序列问题。

[X, T] = simpleseries_dataset;网= layrecnet (1:2, 10);[X, Xi, Ai, Ts] = preparets(净,X, T);网=火车(净,x, Ts, Xi, Ai);视图(净)Y =净(Xs, Xi, Ai);穿孔=执行(净,Y, Ts)
穿孔= 6.1239 e-11

输入参数

全部折叠

零个或积极的输入延迟,指定为行向量。

隐藏层的大小,指定为一个或多个元素的一个行向量。

训练函数名,指定为以下之一。

培训功能 算法
“trainlm”

Levenberg-Marquardt

“trainbr”

贝叶斯正则化

“trainbfg”

高炉煤气拟牛顿

“trainrp”

有弹性的反向传播

“trainscg”

按比例缩小的共轭梯度

“traincgb”

共轭梯度与鲍威尔/ Beale重启

“traincgf”

Fletcher-Powell共轭梯度

“traincgp”

Polak-Ribiere共轭梯度

“trainoss”

sec一步

“traingdx”

可变学习速率梯度下降法

“traingdm”

与动量梯度下降

“traingd”

梯度下降法

例子:例如,您可以指定可变学习速率梯度下降算法的训练算法如下:“traingdx”

培训功能的更多信息,请参阅培训和应用多层浅神经网络选择一个多层神经网络训练功能

数据类型:字符

介绍了R2010b