深度学习HDL工具箱™ 支持系列卷积神经网络(CNN或万博1manbetxCONVNET)的代码生成。您可以为任何训练过的CNN生成代码,这些CNN的计算层支持代码生成。有关完整列表,请参阅万博1manbetx支撑层。您可以使用表中列出的其中一个预训练网络为目标Intel生成代码®或Xilinx®FPGA板。
网络 | 网络描述 | 类型 | 单一数据类型(带有传输比特流) | INT8数据类型(带有Shipping Bitstreams) | 应用领域 | ||||
ZCU102 | ZC706 | Arria10 SoC | ZCU102 | ZC706 | Arria10 SoC | 分类 | |||
阿列克斯内特 | 卷积神经网络。 |
系列网络 | 是的 | 是的 | 是的 | 是的 | 是的 | 是的 | 分类 |
LogoNet | Logo识别网络(LogoNet)是一个MATLAB®开发标识识别网络。有关更多信息,请参见标识识别网络. |
系列网络 | 是的 | 是的 | 是的 | 是的 | 是的 | 是的 | 分类 |
数字网 | 数字分类网络。看见创建简单的深度学习网络分类 |
系列网络 | 是的 | 是的 | 是的 | 是的 | 是的 | 是的 | 分类 |
车道检测 | LaneNet卷积神经网络。有关详细信息,请参阅为车道检测部署转移学习网络. |
系列网络 | 是的 | 是的 | 是的 | 是的 | 是的 | 是的 | 分类 |
VGG-16 | VGG-16卷积神经网络。有关预训练VGG-16模型,请参阅 |
系列网络 | 不。网络超过PL DDR内存大小 | 否。网络超出FC模块内存大小。 | 是的 | 是的 | 否。网络超出FC模块内存大小。 | 是的 | 分类 |
VGG-19 | VGG-19卷积神经网络。对于预训练VGG-19模型,请参见 |
系列网络 | 不。网络超过PL DDR内存大小 | 否。网络超出FC模块内存大小。 | 是的 | 是的 | 否。网络超出FC模块内存大小。 | 是的 | 分类 |
Darknet-19 | Darknet-19卷积神经网络。有关预训练的darknet-19模型,请参见 |
系列网络 | 是的 | 是的 | 是的 | 是的 | 是的 | 是的 | 分类 |
雷达的分类 | 利用微多普勒特征识别和分类目标的卷积神经网络。有关更多信息,请参见基于FPGA的自行车和行人分类. | 系列网络 | 是的 | 是的 | 是的 | 是的 | 是的 | 是的 | 分类和软件定义无线电(SDR) |
缺陷检测snet_defnet |
snet_defnet 是用于识别和分类缺陷的自定义AlexNet网络。有关详细信息,请参阅缺陷检测. |
系列网络 | 是的 | 是的 | 是的 | 是的 | 是的 | 是的 | 分类 |
缺陷检测斯奈特·布朗代特网 |
斯奈特·布朗代特网 是一种自定义卷积神经网络,用于识别和分类缺陷。有关详细信息,请参阅缺陷检测. |
系列网络 | 是的 | 是的 | 是的 | 是的 | 是的 | 是的 | 分类 |
YOLO v2车辆检测 | “只看一次”(YOLO)是一个对象检测器,它对来自卷积神经网络的预测进行解码,并在对象周围生成边界框。有关详细信息,请参阅使用部署到FPGA的YOLO v2进行车辆检测. | 系列网络基础 | 是的 | 是的 | 是的 | 是的 | 是的 | 是的 | 对象检测 |
DarkNet-53 | Darknet-53卷积神经网络。关于预先训练的DarkNet-53模型,请参阅黑暗的53 . |
基于有向无环图(DAG)网络 | 否。网络超过PL DDR内存大小。 | 不。网络全连接层超过内存大小。 | 是的 | 是的 | 不。网络全连接层超过内存大小。 | 是的 | 分类 |
ResNet-18 | ResNet-18卷积神经网络。有关预训练的ResNet-18型号,请参阅resnet18 . |
基于有向无环图(DAG)网络 | 是的 | 是的 | 是的 | 是的 | 是的 | 分类 | |
ResNet-50 | ResNet-50卷积神经网络。关于预先训练的ResNet-50模型,请看resnet50 . |
基于有向无环图(DAG)网络 | 否。网络超过PL DDR内存大小。 | 否。网络超过PL DDR内存大小。 | 是的 | 是的 | 是的 | 是的 | 分类 |
基于ResNet的yolov2 | “只看一次”(YOLO)是一个对象检测器,它对来自卷积神经网络的预测进行解码,并在对象周围生成边界框。有关详细信息,请参阅基于YOLO v2的DAG网络车辆检测部署在FPGA上. | 基于有向无环图(DAG)网络 | 是的 | 是的 | 是的 | 是的 | 是的 | 是的 | 对象检测 |
MobileNetV2 | MobileNet-v2卷积神经网络。有关预培训的MobileNet-v2型号,请参阅mobilenetv2 . |
基于有向无环图(DAG)网络 | 是的 | 不。全连接层超过PL DDR内存大小。 | 是的 | 没有 | 不。全连接层超过PL DDR内存大小。 | 没有 | 分类 |
GoogLeNet | 卷积神经网络。关于预先训练的GoogLeNet模型,请看水壶 . |
深度学习HDL工具箱支持这些表中列出的层。万博1manbetx
层 | 硬件(HW)或软件(SW) | 描述和局限性 | INT8兼容 |
西南 | 图像输入层向网络输入二维图像并应用数据归一化。 |
对在软件中作为单个数据类型运行。 |
层 | 硬件(HW)或软件(SW) | 图层输出格式 | 描述和局限性 | INT8兼容 |
硬件 | 卷积(Conv) | 二维卷积层将滑动卷积滤波器应用于输入。 当使用此层为网络生成代码时,有以下限制:
|
是的 |
|
硬件 | 卷积(Conv) | 一个二维分组卷积层将输入通道分成组,并应用滑动卷积滤波器。使用分组卷积层进行信道可分(也称为深度可分)卷积。 现在,二维分组卷积层支持代码生成,该层具有万博1manbetx 当使用此层为网络生成代码时,有以下限制:
|
是的 |
|
硬件 | 完全连接(FC) | 一个完全连通的层将输入乘以一个权值矩阵,然后添加一个偏置向量。 当使用此层为网络生成代码时,有以下限制:
|
是的 |
层 | 硬件(HW)或软件(SW) | 图层输出格式 | 描述和局限性 | INT8兼容 |
硬件 | 这层是熔合的。 | ReLU层对输入的每个元素执行阈值操作,其中任何小于零的值都设置为零。 仅当ReLU层前面有以下任一层时万博1manbetx,才支持ReLU层:
|
是的 |
|
硬件 | 这层是熔合的。 | 一个泄漏的ReLU层执行一个阈值操作,其中任何小于零的输入值乘以一个固定标量。 一个有泄漏的ReLU层只有在前面有以下任何一万博1manbetx层时才会被支持:
|
是的 |
|
硬件 | 这层是熔合的。 | 被裁剪的ReLU层执行一个阈值操作,其中任何小于零的输入值都被设置为零,任何高于裁剪上限的值都被设置为该裁剪上限值。 一个被裁剪的ReLU层只有在前面有以下任何一层时万博1manbetx才被支持:
|
是的 |
层 | 硬件(HW)或软件(SW) | 图层输出格式 | 描述和局限性 | INT8兼容 |
硬件 | 这层是熔合的。 | 批处理规格化层将跨小批处理的每个输入通道规格化。 仅当批处理规范化层前面有卷积层时,才支持该层。万博1manbetx |
是的 |
|
硬件 | 卷积(Conv) | 信道局部响应(跨信道)规范化层执行信道规范化。 的 |
对在硬件中作为单个数据类型运行。 |
|
等待在推理 | 等待在推理 | dropout层在给定的概率内将输入元素随机设置为零。 |
是的 |
层 | 硬件(HW)或软件(SW) | 图层输出格式 | 描述和局限性 | INT8兼容 |
硬件 | 卷积(Conv) | 最大池化层通过将层输入划分为矩形池化区域并计算每个区域的最大值来执行向下采样。 当使用此层为网络生成代码时,有以下限制:
|
是的 |
|
硬件 | 卷积(Conv) | 平均池化层通过将层输入划分为矩形池化区域并计算每个区域的平均值来执行向下采样。 当使用此层为网络生成代码时,有以下限制:
|
是的 |
|
硬件 | 卷积(Conv)或完全连接(FC)。当输入激活大小小于内存阈值时,层输出格式为FC。 | 全局平均池化层通过计算输入的高度和宽度维度的平均值来执行下采样。 当使用此层为网络生成代码时,有以下限制:
|
是的 |
层 | 硬件(HW)或软件(SW) | 图层输出格式 | 描述和局限性 | INT8兼容 |
硬件 | 继承输入。 | 加法层以元素的方式增加来自多个神经网络层的输入。 现在,您可以使用 当使用此层为网络生成代码时,有以下限制:
|
是的 | |
硬件 | 继承输入。 | 深度连接层接收具有相同高度和宽度的输入,并沿第三维(通道维度)连接它们。 当使用此层为网络生成代码时,有以下限制:
|
是的 |
层 | 硬件(HW)或软件(SW) | 描述和局限性 | INT8兼容 |
软硬件 | softmax层将softmax功能应用于输入。 如果softmax层是硬件实现的:
|
对在软件中作为单个数据类型运行。 |
|
西南 | 分类层计算具有互斥类的多类分类问题的交叉熵损失。 |
是的 |
|
西南 | 回归层计算回归问题的一半均方误差损失。 |
是的 |
层 | 硬件(HW)或软件(SW) | 图层输出格式 | 描述和局限性 | INT8兼容 |
nnet.keras.layer.FlattenCStyleLayer |
硬件 | 层会熔化 | 假设C样式(行主)顺序,将激活展平为1-D层。 一个 |
是的 |
nnet.keras.layer.ZeroPadding2dLayer |
硬件 | 层将被熔化。 | 二维输入的零填充层。 一个 |
是的 |
这些板由深度学习HDL工具箱支持:万博1manbetx
Xilinx Zynq®-7000年ZC706
英特尔Arria®10 SoC
Xilinx Zynq UltraScale+™MPSoC ZCU102
深度学习HDL工具箱已测试与:
Xilinx Vivado设计套件2020.1
英特尔Quartus Prime 18.1