缩放共轭梯度背部化
net.trainfcn ='trainscg'
设置网络训练码
财产。
[
训练网络训练网络
那TR.
] =火车(网
,......)Trainscg.
。
Trainscg.
是一种网络训练功能,可根据缩放的共轭梯度方法更新权重和偏置值。
培训发生根据Trainscg.
培训参数,此处以其默认值显示:
net.trainparam.echs.
- 培训的最大单位数。默认值为1000。
net.trainparam.show.
- 显示器之间的时期(南
没有显示)。默认值为25。
net.trainparam.showcommandline.
- 生成命令行输出。默认值是错误的
。
net.trainparam.showwindow.
- 显示培训GUI。默认值是真的
。
net.trainparam.goal.
- 绩效目标。默认值为0。
net.trainparam.time.
- 最长时间培训时间。默认值是inf
。
net.trainparam.min_grad.
- 最小性能梯度。默认值是1E-6
。
net.trainparam.max_fail.
- 最大验证失败。默认值是6.
。
net.trainparam.mu.
- Marquardt调整参数。默认值为0.005。
net.trainparam.sigma.
- 确定第二衍生近似的重量变化。默认值是5.0E-5
。
net.trainparam.lambda.
- 用于调节黑森州的无限期的参数。默认值是5.0E-7
。
Trainscg.
只要其重量,净输入和传输函数可以培训任何网络都具有衍生功能。BackPropagation用于计算性能的衍生物perf
关于重量和偏置变量X
。
缩放的共轭梯度算法基于共轭方向,如TrainCGP.
那TrainCGF.
, 和TrainCGB.
但是,此算法在每次迭代时不执行线路搜索。看到moller(神经网络,卷。6,1993,第525-533页)对于缩放共轭梯度算法的更详细讨论。
当发生任何这些条件时,培训停止:
最大数量时代
(重复)达到。
最大数量时间
超出了。
性能最小化到目标
。
性能梯度低于min_grad.
。
验证性能超过了max_fail.
自上次降低以来(使用验证时)以来的次数。
[1] Moller。神经网络,卷。6,1993,PP 525-533