Reinforcement Learning Toolbox
Entwurf und Training von Richtlinien mithilfe von Reinforcement Learning
Die Reinforcement Learning Toolbox™ bietet Funktionen und Blöcke zum Trainieren von Richtlinien mit Reinforcement-Learning-Algorithmen wie DQN, A2C und DDPG. Mithilfe dieser Richtlinien können Sie Steuerungen und Entscheidungsalgorithmen für komplexe Systeme wie Roboter und autonome Anlagen implementieren. Bei der Implementierung der Richtlinien können tiefe neuronale Netze, Polynome oder Lookup-Tabellen zum Einsatz kommen.
Die Toolbox ermöglicht das Trainieren von Richtlinien durch die Interaktion mit Umgebungen, die als MATLAB®- oder Simulink®-Modelle dargestellt werden. Sie haben die Möglichkeit, Algorithmen zu evaluieren, mit Hyperparameter-Einstellungen zu experimentieren und den Trainingsfortschritt zu überwachen. Um die Trainingsleistung zu optimieren, können Sie parallele Simulationen in der Cloud, in Computer-Clustern und auf GPUs (mit der Parallel Computing Toolbox™ und MATLAB Parallel Server™) ausführen.
Durch das ONNX™-Modellformat lassen sich vorhandene Richtlinien aus Deep-Learning-Frameworks wie TensorFlow™ Keras und PyTorch (mit der Deep Learning Toolbox™) importieren. Sie können optimierten C-, C++- und CUDA-Code generieren, um trainierte Richtlinien auf Microcontrollern und GPUs anzuwenden.
Die Toolbox beinhaltet Referenzbeispiele für den Einsatz von Reinforcement Learning zum Entwerfen von Steuerungen für Robotiksysteme und Anwendungen für automatisiertes Fahren.
Jetzt Beginnen:
Reinforcement-Learning-Algorithmen
Simptioneren Sie Agenten Mithilfe von Deep Q-Network(DQN),Advantage Actor Critic (A2C), Deep Deterministic Policy Gradients (DDPG) und anderen integrierten Algorithmen. Verwenden Sie Vorlagen, um benutzerdefinierte Agenten zum Trainieren von Richtlinien zu implementieren.
Darstellung von Richtlinien und Wertefunktionen mithilfe tiefer neuronaler Netze
Verwenden Sie Tiefe NeuronaleNetzeFürChichtlinienKomplexer Systeme MitGroßenZustands-/HandlungsRäumen。Defieren Sie Richtlinien Mit Netzen und Architekturen Aus der Deam Learing Toolbox。Importieren Sie Onnx-Modelle,UM DieOrteroperabilitätMit和培根深学习框架Zu Nutzen。
Simulink-Blöcke für Agenten
Implementieren und trainieren Sie Reinforcement-Learning-Agenten in Simulink.
Simulink- und Simscape-Umgebungen
Verwenden Sie 万博1manbetxSimulink-und Simscape™-ModelleFürieDarstellungEiner Umgebung。Bestimmen Sie Beobachtungs-,Handlungs-伯斯霍亨通斯尼亚州innerhalb des Modells。
Matlab-Umgebungen.
Verwenden Sie MATLAB-Funktionen und -Klassen für die Darstellung einer Umgebung. Bestimmen Sie Beobachtungs-, Handlungs- und Belohnungsvariablen innerhalb der MATLAB-Datei.
verteptes rechnen und mehrkernbeschleunigung
Beschleunigen Sie das Training, indem Sie parallele Simulationen auf Mehrkerncomputern, Cloud-Ressourcen oder Computerclustern mithilfe der Parallel Computing Toolbox undMATLAB Parallel Serverdurchführen.
GPU-Beschleunigung
Beschleunigen Sie das Training und die Inferenz tiefer neuronaler Netze mit leistungsstarken NVIDIA®-GPUs. Verwenden Sie MATLAB mit derParallel Computing Toolboxund den meisten cuda®-fähigen NVIDIA-GPUs mitCUDA-Version 3.0 oder höher.
Codegenerierung
Verwenden Sie denGPU Coder™, um optimierten CUDA-Code aus MATLAB-Code zu generieren, der die Richtlinien nach dem Training wiedergibt. Verwenden Sie denMATLAB Coder™, um C-/C++-Code für die Bereitstellung von Richtlinien zu generieren.
Unterstützung für MATLAB Compiler
Verwenden SieMATLAB Compiler™undMATLAB Compiler SDK™,UM Richtlinien Nach DEM培训ALS C / C ++ Freigegebene Bibliotheken,微软®.NET-Assemblies, Java®-Klassen und Python®-Pakete bereitzustellen。
Einstieg
Simplingieren Sie AUF强化学习 - Basierende SteuerungenFür问题Wie Den Ausgleich Eines Invensen Pendels,Die Navigation IM Grid-World-Labyrinth und Den Ausgleich Eines Wagen-Pendel-Systems。
Anwendungen für automatisiertes Fahren
Entwerfen Sie Steuerungen für adaptive Tempomaten und Spurhalteassistenten.
Robotik
Entwerfen Sie mithilfe von Reinforcement Learning Steuerungen für Roboter.
Multi-Agent Reinforcement Learning
Mehrere Agenten gleichzeitig in einer Simulink-Umgebung trainieren
Soft Actor-Critic Agent
Trainieren Sie probeneffiziente Richtlinien für Umgebungen mit kontinuierlichen Aktionsräumen durch verstärkte Exploration
Default Agents
Vermeiden der Manuellen Formulierung von Richtlinien Durch Das Eertheren von Agenten MitStandardmäßigernetzstruktur
详细信息Zu Diesen Merkmalen und denzugehörigenfunktionen findens sieVersionshinweisen.
加强学习视频系列
Watch the videos in this series to learn about reinforcement learning.