深度学习工具箱

设计、培训和分析深度学习网络

深度学习工具箱™ 提供一个框架,用于设计和实现具有算法、预训练模型和应用程序的深度神经网络。您可以使用卷积神经网络(convnet、CNNs)和长-短期记忆(LSTM)网络对图像、时间序列和文本数据执行分类和回归。您可以使用自动区分、自定义训练循环和共享权重构建网络体系结构,如生成性对抗网络(GAN)和暹罗网络。使用Deep Network Designer应用程序,您可以图形化地设计、分析和训练网络。“实验管理器”应用程序可帮助您管理多个深度学习实验、跟踪训练参数、分析结果以及比较不同实验的代码。您可以可视化图层激活并以图形方式监控培训进度。

您可以使用TensorFlow交换模型™ 通过ONNX格式和TensorFlow Keras和Caffe导入模型。工具箱支持使用DarkNet-53、ResNet-50、NASNet、SqueezeNet和许多其他预训练模型进行迁移学习。万博1manbetx

您可以在单个或多个GPU工作站上加速培训(使用并行计算工具箱)™), 或者扩展到集群和云,包括NVIDIA® GPU云和Amazon EC2® GPU实例(带MATLAB并行服务器)™).

开始:

网络和体系结构

针对图像、时间序列、数字和文本数据的分类、回归和特征学习,培训深度学习网络。

卷积神经网络

学习图像中的模式以识别对象、人脸和场景。构造和训练卷积神经网络(CNN)以执行特征提取和图像识别。

长短时记忆网络

学习序列数据的长期依赖关系,包括信号、音频、文本和其他时间序列数据。构建和训练长短期记忆(LSTM)网络进行分类和回归。

与LSTM合作。

网络体系结构

使用各种网络结构,包括有向无环图(DAG)和循环架构,构建深度学习网络。使用自定义训练循环、共享权重和自动区分,构建高级网络架构,如生成性对抗网络(GAN)和暹罗网络。

使用不同的网络架构。

网络设计与分析

使用交互式应用程序构建、可视化、实验和分析深度学习网络。

设计深度学习网络

使用deep network Designer应用程序从头开始创建和训练一个深度网络。导入一个预先训练的模型,可视化网络结构,编辑层,调整参数,并训练。

分析深度学习网络

在培训之前,分析您的网络体系结构以检测和调试错误、警告和层兼容性问题。可视化网络拓扑并查看详细信息,如可学习的参数和激活。

分析一个深度学习网络架构。

管理深度学习实验

使用实验管理器应用程序管理多个深度学习实验。跟踪训练参数,分析结果,比较不同实验的代码。使用可视化工具,如训练图和混淆矩阵,对实验结果进行排序和过滤,并定义自定义指标来评估训练后的模型。

迁移学习与预训练模型

将预先训练好的模型导入MATLAB进行推理。

迁移学习

访问预先训练的网络,并将其作为学习新任务的起点。执行迁移学习,将网络中学习到的功能用于特定任务。

Pretrained模型

使用一行代码访问最新研究中的预训练网络。导入预训练模型,包括DarkNet-53、ResNet-50、SqueezeNet、NASNet和Inception-v3。

预训练模型的分析。

可视化与调试

在深度学习网络中可视化训练进展和学习特征的激活。

培训进度

使用各种指标图查看每个迭代中的培训进度。根据培训指标绘制验证指标,以查看网络是否过度拟合。

监控模型的培训进度。

网络激活和可视化

提取对应于层的激活,可视化学习的特征,并使用激活训练机器学习分类器。使用Grad CAM、occlusion和LIME解释深度学习网络的分类决策。

可视化激活。

框架互操作性

与来自MATLAB的深度学习框架进行互操作。

ONNX转换器

在MATLAB中导入和导出ONNX模型®用于与其他深度学习框架的互操作性。ONNX使模型能够在一个框架中进行训练,并转移到另一个框架进行推理。使用GPU编码器™生成优化的NVIDIA®库达®代码和使用MATLAB编码器™为导入的模型生成C++代码。

与深度学习框架互操作。

TensorFlow Keras导入器

将TensorFlow Keras的模型导入MATLAB进行推理和迁移学习。使用GPU编码器生成优化的CUDA代码并使用MATLAB编码器为导入的模型生成C++代码。

咖啡馆进口商

将Caffe Model Zoo中的模型导入MATLAB进行推理和迁移学习。

将Caffe模型动物园中的模型导入MATLAB。

训练加速

使用GPU、云和分布式计算加速深度学习训练。

GPU加速

使用高性能NVIDIA GPU加快深度学习培训和推理。在数据中心或云中的单个工作站GPU上执行培训,或使用DGX系统扩展到多个GPU。您可以使用MATLAB与并行计算工具箱大多数支持CUDA的NVIDIA GPU计算能力3.0或更高版本.

与gpu加速。

云加速

使用云实例减少深度学习培训时间。使用高性能GPU实例可获得最佳效果。

使用并行计算工具箱和MATLAB并行服务器加速云端培训。

分布式计算

使用MATLAB并行服务器在网络上的多个服务器上跨多个处理器运行深度学习培训。

在云中并行扩展深度学习。

模拟、代码生成和部署

模拟并将经过培训的网络部署到嵌入式系统,或将其集成到生产环境中。

模拟

在Simulink中模拟和生成深度学习网络的代码万博1manbetx®。使用AlexNet、GoogLeNet和其他预训练模型。您还可以模拟从头创建或通过转移学习创建的网络,包括LSTM网络。使用GPU编码器和NVIDIA GPU在Simulink中加速深度学习网络的执行。模拟具有控制、信号处理和传感器融合组件的深度学习网络nts评估深度学习模型对系统级性能的影响。万博1manbetx

Simulink中的深度卷积神经网络万博1manbetx®车道和车辆检测模型

代码生成

使用GPU编码器要生成优化的CUDA代码,MATLAB编码器万博1manbetxSimulink编码器生成C和c++代码,将深度学习网络部署到NVIDIA gpu, Intel®至强®手臂®皮层®-A处理器。自动将生成的代码交叉编译和部署到NVIDIA Jetson上™ 驾驶™ 平台和树莓皮™ 董事会。使用深度学习HDL工具箱™用于在fpga和soc上原型和实现深度学习网络

深度学习量化

量化您的深度学习网络,以减少内存使用和提高推理性能。使用Deep Network Quantizer应用程序分析和可视化提高性能和推理精度之间的权衡。

部署独立的应用程序

使用MATLAB编译器™MATLAB编译器SDK™将经过训练的网络部署为C++共享库,微软® .NET程序集,Java® 类和Python® 包含深入学习模型的MATLAB程序包。

与MATLAB编译器共享独立的MATLAB程序。

浅层神经网络

将神经网络与各种有监督和无监督的浅层神经网络结构结合使用。

监督网络

训练有监督的浅层神经网络对动态系统进行建模和控制,对噪声数据进行分类,并预测未来事件。

浅神经网络。

无监督网络

通过让浅层网络不断调整自身以适应新的输入,查找数据中的关系并自动定义分类方案。使用自组织、无监督网络以及竞争层和自组织地图。

自组织映射。

堆叠式自动编码器

通过使用自动编码器从数据集中提取低维特征,执行无监督特征转换。你也可以通过训练和堆叠多个编码器来使用堆叠自动编码器进行有监督的学习。

堆叠编码器。

最新功能

图像分类与网络预测块

在Simulink中模拟和生成深度学习模型的代码万博1manbetx

实验管理器应用程序

并行训练多个深度学习网络并使用贝叶斯优化调整超参数

深度网络设计器应用程序

培训用于图像分类、语义分割、多输入、内存不足、图像到图像回归和其他工作流的网络。

多层感知器网络

在表格中具有数字特征输入和特征输入与图像输入相结合的列车网络。

自定义训练循环

自动创建和预处理小批量数据。

发行说明有关这些特性和相应功能的详细信息。

用于深度学习的MATLAB

只要几行MATLAB代码,您就可以将深度学习技术应用到工作中,无论您是在设计算法、准备和标记数据,还是生成代码并部署到嵌入式系统。