主要内容

万博1manbetx支持的网络,层,板和工具

万博1manbetx支持预训练网络

深度学习HDL工具箱™ 支持系列卷积神经网络(CNN或万博1manbetxCONVNET)的代码生成。您可以为任何训练过的CNN生成代码,这些CNN的计算层支持代码生成。有关完整列表,请参阅万博1manbetx支撑层。您可以使用表中列出的其中一个预训练网络为目标Intel生成代码®或Xilinx®FPGA板。

网络 网络描述 类型 单一数据类型(带有传输比特流) INT8数据类型(带有Shipping Bitstreams) 应用领域
ZCU102 ZC706 Arria10 SoC ZCU102 ZC706 Arria10 SoC 分类
阿列克斯内特

卷积神经网络。

系列网络 是的 是的 是的 是的 是的 是的 分类
LogoNet

Logo识别网络(LogoNet)是一个MATLAB®开发标识识别网络。有关更多信息,请参见标识识别网络

系列网络 是的 是的 是的 是的 是的 是的 分类
数字网

数字分类网络。看见创建简单的深度学习网络分类

系列网络 是的 是的 是的 是的 是的 是的 分类
车道检测

LaneNet卷积神经网络。有关详细信息,请参阅为车道检测部署转移学习网络

系列网络 是的 是的 是的 是的 是的 是的 分类
VGG-16

VGG-16卷积神经网络。有关预训练VGG-16模型,请参阅vgg16

系列网络 不。网络超过PL DDR内存大小 否。网络超出FC模块内存大小。 是的 是的 否。网络超出FC模块内存大小。 是的 分类
VGG-19

VGG-19卷积神经网络。对于预训练VGG-19模型,请参见vgg19

系列网络 不。网络超过PL DDR内存大小 否。网络超出FC模块内存大小。 是的 是的 否。网络超出FC模块内存大小。 是的 分类
Darknet-19

Darknet-19卷积神经网络。有关预训练的darknet-19模型,请参见darknet19

系列网络 是的 是的 是的 是的 是的 是的 分类
雷达的分类 利用微多普勒特征识别和分类目标的卷积神经网络。有关更多信息,请参见基于FPGA的自行车和行人分类 系列网络 是的 是的 是的 是的 是的 是的 分类和软件定义无线电(SDR)
缺陷检测snet_defnet snet_defnet是用于识别和分类缺陷的自定义AlexNet网络。有关详细信息,请参阅缺陷检测 系列网络 是的 是的 是的 是的 是的 是的 分类
缺陷检测斯奈特·布朗代特网 斯奈特·布朗代特网是一种自定义卷积神经网络,用于识别和分类缺陷。有关详细信息,请参阅缺陷检测 系列网络 是的 是的 是的 是的 是的 是的 分类
YOLO v2车辆检测 “只看一次”(YOLO)是一个对象检测器,它对来自卷积神经网络的预测进行解码,并在对象周围生成边界框。有关详细信息,请参阅使用部署到FPGA的YOLO v2进行车辆检测 系列网络基础 是的 是的 是的 是的 是的 是的 对象检测
DarkNet-53 Darknet-53卷积神经网络。关于预先训练的DarkNet-53模型,请参阅黑暗的53 基于有向无环图(DAG)网络 否。网络超过PL DDR内存大小。 不。网络全连接层超过内存大小。 是的 是的 不。网络全连接层超过内存大小。 是的 分类
ResNet-18 ResNet-18卷积神经网络。有关预训练的ResNet-18型号,请参阅resnet18 基于有向无环图(DAG)网络 是的 是的 是的 是的 是的 分类
ResNet-50 ResNet-50卷积神经网络。关于预先训练的ResNet-50模型,请看resnet50 基于有向无环图(DAG)网络 否。网络超过PL DDR内存大小。 否。网络超过PL DDR内存大小。 是的 是的 是的 是的 分类
基于ResNet的yolov2 “只看一次”(YOLO)是一个对象检测器,它对来自卷积神经网络的预测进行解码,并在对象周围生成边界框。有关详细信息,请参阅基于YOLO v2的DAG网络车辆检测部署在FPGA上 基于有向无环图(DAG)网络 是的 是的 是的 是的 是的 是的 对象检测
MobileNetV2 MobileNet-v2卷积神经网络。有关预培训的MobileNet-v2型号,请参阅mobilenetv2 基于有向无环图(DAG)网络 是的 不。全连接层超过PL DDR内存大小。 是的 没有 不。全连接层超过PL DDR内存大小。 没有 分类
GoogLeNet 卷积神经网络。关于预先训练的GoogLeNet模型,请看水壶

万博1manbetx支撑层

深度学习HDL工具箱支持这些表中列出的层。万博1manbetx

输入层

硬件(HW)或软件(SW) 描述和局限性 INT8兼容

imageInputLayer

西南

图像输入层向网络输入二维图像并应用数据归一化。

对在软件中作为单个数据类型运行。

卷积和全连接层

硬件(HW)或软件(SW) 图层输出格式 描述和局限性 INT8兼容

convolution2dLayer

硬件 卷积(Conv)

二维卷积层将滑动卷积滤波器应用于输入。

当使用此层为网络生成代码时,有以下限制:

  • 过滤器尺寸必须为1-15和方形。例如[1 1]或[15 15]。

  • 步幅必须为1-15,且为方形。

  • 填充大小必须在0-8范围内。

  • 膨胀系数必须为[1]。

  • 不支持填充值。万博1manbetx

是的

分组卷积层

硬件 卷积(Conv)

一个二维分组卷积层将输入通道分成组,并应用滑动卷积滤波器。使用分组卷积层进行信道可分(也称为深度可分)卷积。

现在,二维分组卷积层支持代码生成,该层具有万博1manbetxNumGroups属性设置为“channel-wise”

当使用此层为网络生成代码时,有以下限制:

  • 过滤器尺寸必须为1-15和方形。例如[1 1]或[14 14]。当NumGroups设置为“channel-wise”,过滤器大小必须为3-14。

  • 步幅必须为1-15,且为方形。

  • 填充大小必须在0-8范围内。

  • 膨胀系数必须为[1]。

  • 组数必须为1或2。

  • 输入的特征数必须大于。的平方根的单个倍数ConvThreadNumber

  • NumGroups未设置为“channel-wise”,每个组的筛选器数必须是ConvThreadNumber

是的

fullyConnectedLayer

硬件 完全连接(FC)

一个完全连通的层将输入乘以一个权值矩阵,然后添加一个偏置向量。

当使用此层为网络生成代码时,有以下限制:

是的

活化层

硬件(HW)或软件(SW) 图层输出格式 描述和局限性 INT8兼容

reluLayer

硬件 这层是熔合的。

ReLU层对输入的每个元素执行阈值操作,其中任何小于零的值都设置为零。

仅当ReLU层前面有以下任一层时万博1manbetx,才支持ReLU层:

  • 卷积

  • 完全连接

  • 加法器

是的

leakyReluLayer

硬件 这层是熔合的。

一个泄漏的ReLU层执行一个阈值操作,其中任何小于零的输入值乘以一个固定标量。

一个有泄漏的ReLU层只有在前面有以下任何一万博1manbetx层时才会被支持:

  • 卷积

  • 完全连接

  • 加法器

是的

clippedReluLayer

硬件 这层是熔合的。

被裁剪的ReLU层执行一个阈值操作,其中任何小于零的输入值都被设置为零,任何高于裁剪上限的值都被设置为该裁剪上限值。

一个被裁剪的ReLU层只有在前面有以下任何一层时万博1manbetx才被支持:

  • 卷积

  • 完全连接

  • 加法器

是的

标准化,删除和裁剪图层

硬件(HW)或软件(SW) 图层输出格式 描述和局限性 INT8兼容

batchNormalizationLayer

硬件 这层是熔合的。

批处理规格化层将跨小批处理的每个输入通道规格化。

仅当批处理规范化层前面有卷积层时,才支持该层。万博1manbetx

是的

crossChannelNormalizationLayer

硬件 卷积(Conv)

信道局部响应(跨信道)规范化层执行信道规范化。

窗口通道大小必须在代码生成的3-9范围内。

对在硬件中作为单个数据类型运行。

dropoutLayer

等待在推理 等待在推理

dropout层在给定的概率内将输入元素随机设置为零。

是的

池化和非池化层

硬件(HW)或软件(SW) 图层输出格式 描述和局限性 INT8兼容

maxPooling2dLayer

硬件 卷积(Conv)

最大池化层通过将层输入划分为矩形池化区域并计算每个区域的最大值来执行向下采样。

当使用此层为网络生成代码时,有以下限制:

  • 游泳池大小必须是1-15和正方形。例如[1 1]或[12 12]。

  • 步幅必须为1-15,且为方形。

  • 填充大小必须在0-2范围内。

是的

平均池2层

硬件 卷积(Conv)

平均池化层通过将层输入划分为矩形池化区域并计算每个区域的平均值来执行向下采样。

当使用此层为网络生成代码时,有以下限制:

  • 游泳池大小必须为1-15平方米。例如[3]

  • 步幅必须为1-15,且为方形。

  • 填充大小必须在0-2范围内。

是的

globalAveragePooling2dLayer

硬件 卷积(Conv)或完全连接(FC)。当输入激活大小小于内存阈值时,层输出格式为FC。

全局平均池化层通过计算输入的高度和宽度维度的平均值来执行下采样。

当使用此层为网络生成代码时,有以下限制:

  • 可接受最大尺寸为15 × 15 × n的输入。

  • 总激活像素大小必须小于深度学习处理器卷积模块的输入内存大小。有关更多信息,请参见InputMemorySize

是的

结合层

硬件(HW)或软件(SW) 图层输出格式 描述和局限性 INT8兼容

附加层

硬件 继承输入。

加法层以元素的方式增加来自多个神经网络层的输入。

现在,您可以使用int8当该层与Leaky ReLU或Clipped ReLU层组合时,数据类型。

当使用此层为网络生成代码时,有以下限制:

  • 两个输入层必须具有相同的输出层格式。例如,两个层都必须具有conv输出格式或fc输出格式。

是的

depthConcatenationLayer

硬件 继承输入。

深度连接层接收具有相同高度和宽度的输入,并沿第三维(通道维度)连接它们。

当使用此层为网络生成代码时,有以下限制:

  • 输入的激活特性号必须是。的平方根的倍数ConvThreadNumber

  • 深度连接层的输入必须是深度连接层的专有输入。

  • 具有conv输出格式的层和具有FC输出格式的层不能连接在一起。

是的

输出层

硬件(HW)或软件(SW) 描述和局限性 INT8兼容

softmax

软硬件

softmax层将softmax功能应用于输入。

如果softmax层是硬件实现的:

  • 输入必须在范围内exp (-87)exp (88)

  • 不支持Softmax层、加法器层或深度级联层。万博1manbetx

对在软件中作为单个数据类型运行。

classificationLayer

西南

分类层计算具有互斥类的多类分类问题的交叉熵损失。

是的

regressionLayer

西南

回归层计算回归问题的一半均方误差损失。

是的

Keras和ONNX层

硬件(HW)或软件(SW) 图层输出格式 描述和局限性 INT8兼容
nnet.keras.layer.FlattenCStyleLayer 硬件 层会熔化

假设C样式(行主)顺序,将激活展平为1-D层。

一个nnet.keras.layer.FlattenCStyleLayer仅当后万博1manbetx面跟着一个完全连接的层时才支持。

是的

nnet.keras.layer.ZeroPadding2dLayer 硬件 层将被熔化。

二维输入的零填充层。

一个nnet.keras.layer.ZeroPadding2dLayer仅当后万博1manbetx跟卷积层或maxpool层时支持。

是的

万博1manbetx支撑板

这些板由深度学习HDL工具箱支持:万博1manbetx

  • Xilinx Zynq®-7000年ZC706

  • 英特尔Arria®10 SoC

  • Xilinx Zynq UltraScale+™MPSoC ZCU102

第三方合成工具和版本支持万博1manbetx

深度学习HDL工具箱已测试与:

  • Xilinx Vivado设计套件2020.1

  • 英特尔Quartus Prime 18.1

相关的话题