深度学习HDL工具箱

深度学习HDL工具箱

在FPGA和SOC上原型化并部署深度学习网络

开始:

基于fpga的深度学习推理

在FPGA上原型化并实现深度学习网络,用于边缘部署。

可编程深度学习处理器

工具箱包括一个深度学习处理器,该处理器具有通用卷积和由调度逻辑控制的完全连接的层。该深度学习处理器对使用FPGA开发的网络执行基于FPGA的推断深度学习工具箱™。高带宽内存接口加速层和权重数据的内存传输。

深度学习处理器架构。

编译和部署

将深度学习网络编译成一组指令,由深度学习处理器运行。部署到FPGA并运行预测,同时捕获实际的设备性能指标。

编译和部署YOLO v2网络。

基于FPGA的MATLAB推理

在MATLAB fpga上运行深度学习推理。

创建用于部署的网络

首先,使用深度学习工具箱设计、训练和分析深度学习网络,以完成目标检测或分类等任务。也可以从导入经过训练的网络或其他框架中的层开始。

将网络部署到FPGA

一旦你有了一个训练有素的网络,使用部署命令使用深度学习处理器以及以太网或JTAG接口对FPGA进行编程。然后使用编写命令为经过培训的网络生成一组指令,而无需重新编程FPGA。

使用MATLAB对电路板和接口进行配置,对网络进行编译,并部署到FPGA上。

运行基于fpga的推理作为MATLAB应用程序的一部分

在MATLAB中运行整个应用程序®,包括您的测试台、预处理和后处理算法,以及基于FPGA的深度学习推理。单个MATLAB命令,预测,在FPGA上执行推断并将结果返回到MATLAB工作空间。

运行在FPGA上执行深度学习推断的MATLAB应用程序。

网络定制

调整深度学习网络,以满足目标FPGA或SoC设备上特定于应用程序的需求。

配置FPGA推论

在FPGA上运行预测以发现性能瓶颈时,测量层级延迟。

从MATLAB在FPGA上实现深度学习网络推理。

调整网络设计

使用配置文件度量,使用深度学习工具箱调整网络配置。例如,使用深层网络设计器来添加层、删除层或创建新的连接。

部署自定义RTL实现

将深度学习处理器的自定义RTL实现部署到任何带有HDL编码器的FPGA、ASIC或SoC设备上。

自定义深度学习处理器配置

指定实现深度学习处理器的硬件架构选项,例如并行线程的数量或最大层大小。

生成可合成RTL

使用HDL编码器从深度学习处理器生成可合成的RTL,用于各种实施工作流和设备。重用相同的深度学习处理器进行原型和生产部署。

从深度学习处理器生成可合成的RTL。

生成用于集成的IP核

当HDL Coder从深度学习处理器生成RTL时,它还生成一个带有标准AXI接口的IP核,用于集成到SoC参考设计中。

显示I/O和AXI接口之间映射的目标平台接口表。