Emmanouil Tzorakoleftherakis,Mathworks
强化学习工具箱™提供了应用程序,功能和模拟链接万博1manbetx®block用于使用强化学习算法的训练策略,包括DQN、PPO、SAC和DDPG。您可以使用这些策略为复杂的应用程序(如资源分配、机器人和自治系统)实现控制器和决策算法。
工具箱允许您使用深神经网络或查找表来表示策略和值函数,并通过与Matlab中建模的环境的交互培训®或者是万博1manbetxsimulink。您可以评估工具箱中提供的单个或多代理强化学习算法或开发您自己的学习算法。您可以通过应用程序或以编程方式进行高度参数设置,监视培训进度,并模拟培训的代理。为了提高培训性能,可以在多个CPU,GPU,计算机集群和云上并行运行模拟(使用并行计算工具箱™和MATLABPrild Server™)。
通过Onnx™模型格式,现有的策略可以从DENE学习框架导入Tensorflow™Keras和Pytorch(具有深度学习工具箱™)。您可以生成优化的C,C ++和CUDA®代码在微控制器和gpu上部署经过培训的政策。工具箱包括参考示例,以帮助您开始。
强化学习工具箱™提供了一个应用,功能和块,让您实现控制器和决策算法,以实现复杂的应用程序,例如机器人和自动化驾驶。
工具箱使您能够使用MATLAB完成强化学习工作流的所有步骤,从创建环境和代理,到政策培训和部署®和仿万博1manbetx真软件®.
通过选择内置算法(如DQN、PPO和SAC)定义代理,或开发您自己的自定义算法。
在强化学习设计器中以交互方式或编程方式创建代理对象。
对于深度神经网络策略,Reinforcement Learning Toolbox可以自动生成默认的网络架构。
或者,使用深网络设计器创建深度神经网络策略和价值函数......
或以编程方式,内置函数。
除了神经网络,还支持多项式和查找表。万博1manbetx
你可以在MATLAB和Simulink中创建环境。万博1manbetx
在Si万博1manbetxmulink中,创建一个描述环境动态、观察和奖励信号的模型。
为了将环境模型与所创建的agent对象连接起来,使用agent块的一个或多个实例,分别进行单agent或多agent训练。
对于MATLAB环境,您可以从提供的模板开始,并根据需要进行修改。
您还可以从多个预定义的MATLAB和SIMULINK环境中进行选择。万博1manbetx
要开始培训,请指定培训选项,如停止条件,并在应用程序中或以编程方式培训代理。
并行计算工具箱™和MATLAB并行服务器™让您通过并行模拟和计算加速训练。
在培训期间,插曲经理可以帮助您可视化地监控培训进度,并提供汇总统计信息。
培训完成后,您可以使用模拟环境验证经过培训的代理,并根据需要进行修改。
然后,您可以生成CUDA和C/ c++代码来部署经过培训的策略。
有关“强化学习工具箱”的更多信息,请参阅文档和提供的示例。
您还可以从以下列表中选择一个网站:
选择中国网站(中文或英文)以获得最佳网站性能。其他MathWorks国家站点没有针对您所在位置的访问进行优化。