我如何正确地替换rlRepresentation与rlValueRepresentation, rlQValueRepresentation, rlDeterministicActorRepresentation,和rlStochasticActorRepresentation?
15次浏览(过去30天)
显示旧的注释
我使用的是MATLAB r2020a,其中rlRepresentation是“不推荐的”。因此,我不得不在下面的兼容性指南中用批评家或参与者来代替它(
//www.tianjin-qmedu.com/帮助强化学习/ref / rlrepresentation.html # mw_a6277225 - fecf 4 - d97 - 95491 fc4799bf5b6
).我尝试用rlValueRepresentation、rlQValueRepresentation、rlDeterministicActorRepresentation和rlStochasticActorRepresentation替换rlRepresentation(尽管我离开了
rlRepresentationOptions是它出现的地方)。它们都导致了错误,而且
rlValueRepresentation和rlStochasticActorRepresentation的错误最少(且相同):
使用rlStochasticActorRepresentation错误(第93行)
输入参数太多。
createDDPGNetworks错误(第51行)
批评家= rlStochasticActorRepresentation (criticNetwork,criticOptions,…
既然这位评论家和演员都犯了同样的错误,我想这可能与
rlRepresentationOptions,因为它为演员或评论家提供了属性(据我所知)。
任何帮助都是感激的。
答案(3)
Emmanouil Tzorakoleftherakis
2020年7月17日
如果你粘贴你正在输入的MATLAB代码来看看问题是什么,这将是很有帮助的。我怀疑您只是更改了方法名称,这就是为什么您会得到您所看到的错误。查看一下您想要使用的相应方法(rlValueRepresentation等)的文档页,并确定
顺序和编号
参数与文档相匹配。
0评论
萨尔玛哈立德
2021年8月5日
- 类创建一个参与者rlDeterministicActorRepresentation对象。
- 创建一个评论家使用rlQValueRepresentation对象
//www.tianjin-qmedu.com/help/reinforcement-learning/ug/ddpg-agents.html