Reinforcement Learning Toolbox

Entwurf und Training von Richtlinien mithilfe von Reinforcement Learning

Die Reinforcement Learning Toolbox™ bietet Funktionen und Blöcke zum Trainieren von Richtlinien mit Reinforcement-Learning-Algorithmen wie DQN, A2C und DDPG. Mithilfe dieser Richtlinien können Sie Steuerungen und Entscheidungsalgorithmen für komplexe Systeme wie Roboter und autonome Anlagen implementieren. Bei der Implementierung der Richtlinien können tiefe neuronale Netze, Polynome oder Lookup-Tabellen zum Einsatz kommen.

Die Toolbox ermöglicht das Trainieren von Richtlinien durch die Interaktion mit Umgebungen, die als MATLAB®- oder Simulink®-Modelle dargestellt werden. Sie haben die Möglichkeit, Algorithmen zu evaluieren, mit Hyperparameter-Einstellungen zu experimentieren und den Trainingsfortschritt zu überwachen. Um die Trainingsleistung zu optimieren, können Sie parallele Simulationen in der Cloud, in Computer-Clustern und auf GPUs (mit der Parallel Computing Toolbox™ und MATLAB Parallel Server™) ausführen.

Durch das ONNX™-Modellformat lassen sich vorhandene Richtlinien aus Deep-Learning-Frameworks wie TensorFlow™ Keras und PyTorch (mit der Deep Learning Toolbox™) importieren. Sie können optimierten C-, C++- und CUDA-Code generieren, um trainierte Richtlinien auf Microcontrollern und GPUs anzuwenden.

Die Toolbox beinhaltet Referenzbeispiele für den Einsatz von Reinforcement Learning zum Entwerfen von Steuerungen für Robotiksysteme und Anwendungen für automatisiertes Fahren.

Jetzt Beginnen:

Reinforcement-Learning-Agenten

Implementieren Sie MATLAB- und Simulink-Agenten für das Trainieren von Richtlinien, die als tiefe neuronale Netze dargestellt sind. Nutzen Sie integrierte und benutzerdefinierte Reinforcement-Learning-Algorithmen.

Reinforcement-Learning-Algorithmen

Simptioneren Sie Agenten Mithilfe von Deep Q-Network(DQN),Advantage Actor Critic (A2C), Deep Deterministic Policy Gradients (DDPG) und anderen integrierten Algorithmen. Verwenden Sie Vorlagen, um benutzerdefinierte Agenten zum Trainieren von Richtlinien zu implementieren.

Agenten bestehen aus einer Richtlinie und einem Algorithmus.

Darstellung von Richtlinien und Wertefunktionen mithilfe tiefer neuronaler Netze

Verwenden Sie Tiefe NeuronaleNetzeFürChichtlinienKomplexer Systeme MitGroßenZustands-/HandlungsRäumen。Defieren Sie Richtlinien Mit Netzen und Architekturen Aus der Deam Learing Toolbox。Importieren Sie Onnx-Modelle,UM DieOrteroperabilitätMit和培根深学习框架Zu Nutzen。

Simulink-Blöcke für Agenten

Implementieren und trainieren Sie Reinforcement-Learning-Agenten in Simulink.

Simulink-Block für Reinforcement-Learning-Agenten.

Umgebungsmodellierung

Erstellen Sie MATLAB- und Simulink-Umgebungsmodelle. Beschreiben Sie die Systemdynamik und stellen Sie Beobachtungs- und Belohnungssignale für das Training von Richtlinien bereit.

Simulink- und Simscape-Umgebungen

Verwenden Sie 万博1manbetxSimulink-und Simscape™-ModelleFürieDarstellungEiner Umgebung。Bestimmen Sie Beobachtungs-,Handlungs-伯斯霍亨通斯尼亚州innerhalb des Modells。

Simulink-Umgebungsmodell für ein inverses Pendel.

Matlab-Umgebungen.

Verwenden Sie MATLAB-Funktionen und -Klassen für die Darstellung einer Umgebung. Bestimmen Sie Beobachtungs-, Handlungs- und Belohnungsvariablen innerhalb der MATLAB-Datei.

Matlab-UmgebungFürWagen-Pendel系统。

Beschleunigung des培训

Beschleunigen Sie das Training mithilfe von GPU-, Cloud- und verteilten Rechnerressourcen.

verteptes rechnen und mehrkernbeschleunigung

Beschleunigen Sie das Training, indem Sie parallele Simulationen auf Mehrkerncomputern, Cloud-Ressourcen oder Computerclustern mithilfe der Parallel Computing Toolbox undMATLAB Parallel Serverdurchführen.

Beschleunigung des培训岩白河平行计算。

GPU-Beschleunigung

Beschleunigen Sie das Training und die Inferenz tiefer neuronaler Netze mit leistungsstarken NVIDIA®-GPUs. Verwenden Sie MATLAB mit derParallel Computing Toolboxund den meisten cuda®-fähigen NVIDIA-GPUs mitCUDA-Version 3.0 oder höher.

Beschleunigung des培训mithilfe von GPUs.

codegenerierung und -breitstellung.

Stellen Sie Richtlinien nach dem Training auf Embedded Geräten bereit oder integrieren Sie sie in ein breites Spektrum an Produktionssystemen.

Codegenerierung

Verwenden Sie denGPU Coder™, um optimierten CUDA-Code aus MATLAB-Code zu generieren, der die Richtlinien nach dem Training wiedergibt. Verwenden Sie denMATLAB Coder™, um C-/C++-Code für die Bereitstellung von Richtlinien zu generieren.

Generieren von CUDA-Code mit dem GPU Coder.

Unterstützung für MATLAB Compiler

Verwenden SieMATLAB Compiler™undMATLAB Compiler SDK™,UM Richtlinien Nach DEM培训ALS C / C ++ Freigegebene Bibliotheken,微软®.NET-Assemblies, Java®-Klassen und Python®-Pakete bereitzustellen。

Packen und Freigeben von Richtlinien als eigenständige Programme.

Referenzbeispiele

Entwerfen Sie mithilfe von Reinforcement Learning Steuerungen für Roboter, selbstfahrende Fahrzeuge und andere Systeme.

Anwendungen für automatisiertes Fahren

Entwerfen Sie Steuerungen für adaptive Tempomaten und Spurhalteassistenten.

Trainieren eines斯皮尔哈尔斯塔塞滕。

Neue Funktionen

Multi-Agent Reinforcement Learning

Mehrere Agenten gleichzeitig in einer Simulink-Umgebung trainieren

Soft Actor-Critic Agent

Trainieren Sie probeneffiziente Richtlinien für Umgebungen mit kontinuierlichen Aktionsräumen durch verstärkte Exploration

Default Agents

Vermeiden der Manuellen Formulierung von Richtlinien Durch Das Eertheren von Agenten MitStandardmäßigernetzstruktur

详细信息Zu Diesen Merkmalen und denzugehörigenfunktionen findens sieVersionshinweisen.

加强学习视频系列

Watch the videos in this series to learn about reinforcement learning.