主要内容

getActionInfo

从强化学习环境,获得行动数据规范代理或经验缓冲区

自从R2019a

描述

例子

actInfo= getActionInfo (env)从强化学习环境提取行动信息env

actInfo= getActionInfo (代理)从强化学习代理提取行动信息代理

actInfo= getActionInfo (缓冲)从经验中提取动作信息缓冲区缓冲

例子

全部折叠

这个例子是一个纵向的强化学习环境动力学模型包括两辆车、领袖和跟风者的。也用于车辆模型自适应巡航控制系统使用模型预测控制(模型预测控制工具箱)的例子。

打开模型。

mdl =“rlACCMdl”;open_system (mdl);

代理在指定路径模型。

agentblk = mdl +“/ RL代理”;

创建的观察和操作规范。

%观测规范obsInfo = rlNumericSpec (1 [3], LowerLimit =无穷* (3,1),UpperLimit =正*的(3,1));obsInfo。Name =“观察”;obsInfo。描述=“速度误差和自我信息速度”;%的行动规范actInfo = rlNumericSpec ([1], LowerLimit = 3, UpperLimit = 2);actInfo。Name =“加速”;

接口定义环境。

env = rl万博1manbetxSimulinkEnv (mdl agentblk、obsInfo actInfo)
env = 万博1manbetxSimulinkEnvWithAgent属性:模型:rlACCMdl AgentBlock: rlACCMdl / RL代理ResetFcn: [] UseFastRestart:

强化学习环境env是一个万博1manbetxSimulinkEnvWithAgent对象。

提取的行动和观测规范env

actInfoExt = getActionInfo (env)
actInfoExt = rlNumericSpec属性:LowerLimit: 3 UpperLimit: 2名:“加速度”描述:[0 x0字符串]维度:[1]数据类型:“替身”
obsInfoExt = getObservationInfo (env)
obsInfoExt = rlNumericSpec属性:LowerLimit: x1双[3]UpperLimit: [3 x1双)名称:“观察”的描述:“速度误差和自我信息速度”维度:1[3]数据类型:“替身”

行动信息包含加速度值,同时观察信息包含了自我的车辆速度和速度误差值。

输入参数

全部折叠

强化学习环境中提取的操作信息,指定为以下之一:

强化学习环境的更多信息,请参阅创建MATLAB强化学习环境创建模型强化学万博1manbetx习环境

强化学习代理提取行动的信息,指定为以下对象之一。

在强化学习代理的更多信息,见强化学习代理

经验缓冲区,指定为下列重放内存对象之一。

输出参数

全部折叠

行为规范从强化学习环境中提取数据,作为一个数组返回下列之一:

版本历史

介绍了R2019a