文档帮助中心
从强化学习环境或代理获取动作数据规范
actInfo = getActionInfo (env)
actInfo = getActionInfo(代理)
例子
actInfo= getActionInfo (env)从强化学习环境中提取动作信息env。
actInfo= getActionInfo (env)
actInfo
env
actInfo= getActionInfo (代理)从强化学习代理中提取动作信息代理。
actInfo= getActionInfo (代理)
代理
全部折叠
提取可用于创建其他环境或代理的操作和观察信息。
这个例子的强化学习环境是简单的自我车和引车的纵向动力学。训练目标是通过控制纵向加速度(和刹车),使小我车以设定的速度行驶,同时与前车保持安全距离。此示例使用与自适应巡航控制系统使用模型预测控制(模型预测控制工具箱)例子。
打开模型,创建强化学习环境。
mdl =“rlACCMdl”;open_system (mdl);agentblk = [mdl' / RL代理'];创建观察信息obsInfo = rlNumericSpec([3 1],“LowerLimit”负无穷*的(1),“UpperLimit”,正* (3,1));obsInfo。Name =“观察”;obsInfo。描述="关于速度误差和自我速度的信息";%的动作信息actInfo = rlNumericSpec([11],“LowerLimit”,-3,“UpperLimit”2);actInfo。Name =“加速”;%定义环境env = rl万博1manbetxSimulinkEnv (mdl agentblk、obsInfo actInfo)
属性:Mod万博1manbetxel: "rlACCMdl" AgentBlock: "rlACCMdl/RL Agent" ResetFcn: [] UseFastRestart: 'on'
加强学习环境env是一个万博1manbetxSimulinkWithAgent与上述属性对象。
万博1manbetxSimulinkWithAgent
从强化学习环境中提取动作和观察信息env。
actInfoExt = getActionInfo (env)
Name: "加速度"描述:[0x0字符串]维度:[11 1]数据类型:"double"
obsInfoExt = getObservationInfo (env)
obsInfoExt = rlNumericSpec与属性:假定下限:[3X1双] UpperLimit用户:[3X1双]名称: “观察” 描述: “上速度误差和自我速度信息” 尺寸:[3 1]数据类型: “双”
动作信息包含加速度值,观察信息包含自我车辆的速度和速度误差值。
万博1manbetxSimulinkEnvWithAgent
需要从中提取动作信息的强化学习环境,指定为万博1manbetxSimulinkEnvWithAgent宾语。
有关强化学习环境的更多信息,请参见创建强化学习的万博1manbetxSimulink环境。
rlQAgent
rlSARSAAgent
rlDQNAgent
rlDDPGAgent
rlPGAgent
rlACAgent
必须从中提取动作信息的强化学习agent,指定为以下对象之一:
有关强化学习代理的详细信息,请参阅强化学习代理。
rlNumericSpec
rlFiniteSetSpec
从钢筋学习环境中提取的动作数据规范,作为下列数组之一返回:
rlNumericSpec对象
rlFiniteSetSpec对象
的混合rlNumericSpec和rlFiniteSetSpec对象
getObservationInfo|rlACAgent|rlDDPGAgent|rlDQNAgent|rlFiniteSetSpec|rlNumericSpec|rlPGAgent|rlQAgent|rlSARSAAgent
getObservationInfo
您的系统中存在此示例的修改版本。你想打开这个版本吗?
你点击了一个链接,对应于这个MATLAB命令:
在MATLAB命令窗口中输入命令,运行该命令。Web浏览器不支持MATLAB命令。万博1manbetx
选择一个网站来获取可用的翻译内容,并查看本地事件和报价。根据你的位置,我们建议你选择:。
你也可以从以下列表中选择一个网站:
选择中国网站(中文或英文)以获得最佳网站表现。其他MathWorks国家站点不适合来自您所在位置的访问。
联系当地办事处
得到审判现在