并行计算强化学习

15次浏览(过去30天)
PB75
PB75 2021年8月9日
评论道: PB752021年8月9日
你好,
我已经在我的本地PC上训练了一个TD3 RNN代理几个月了,由于训练周期很长,由于我的PC的性能,我一直在保存缓冲区,所以我可以重新加载预训练的代理来重新开始训练。
我现在可以访问我的大学HPC服务器,所以现在可以使用并行计算来加快培训过程。
然而,现在当我尝试使用预训练的代理运行重新启动训练时,现在在HPC服务器上进行并行计算(之前在我的本地PC上运行,没有并行计算问题),它会标记以下问题。
现在我正在使用并行计算,我需要从一个新的代理开始吗?
还有下面的代码开始并行计算正确吗?
% trainingOpts。UseParallel = true;
% trainingoptions . parallelizationoptions . mode = 'async';
% trainingoptions . parallelizationoptions . datatosendfromworkers = '经验';
谢谢
帕特里克

答案(1)

了戴维斯
了戴维斯 2021年8月9日
截至R2021a, RL工具箱不支持与RNN网络并行训练。万博1manbetx
您仍然可以通过替换TD3的参与者和评论家来重用当前的经验缓冲区来训练新的网络
agent.AgentOptions.ResetExperienceBufferBeforeTraining = false;
setActor(代理,statelessActor);
setCritic(代理,statelessCritic);
设置TD3并行训练的代码片段看起来不错。
希望这能有所帮助
画了
1评论
PB75
PB75 2021年8月9日
嗨了,
谢谢你的回复,所以我不能使用LSTM层并行训练?

登录评论。

社区寻宝

在MATLAB Central中找到宝藏,并发现社区如何帮助您!

开始狩猎!