主要内容

万博1manbetx支持网络、层板、和工具

万博1manbetx支持Pretrained网络

深度学习HDL工具箱™支持系列的代码生成卷积神经网络(万博1manbetxcnn或回旋网)。您可以生成任何代码训练CNN的计算层支持代码生成。万博1manbetx一个完整的列表,请参阅万博1manbetx支持层。您可以使用一个表中列出的pretrained网络为目标英特尔生成代码®或Xilinx®FPGA板。

网络 网络描述 类型 单一数据类型(航运比特流) INT8数据类型(航运比特流) 应用领域
ZCU102 ZC706 Arria10 SoC ZCU102 ZC706 Arria10 SoC 分类
AlexNet

AlexNet卷积神经网络。

系列网络 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 分类
LogoNet

标志识别网络(LogoNet)是MATLAB®发达标志识别网络。有关更多信息,请参见标志识别网络

系列网络 是的 是的 是的 是的 是的 是的 分类
DigitsNet

数字分类网络。看到创建简单的深度学习神经网络分类

系列网络 是的 是的 是的 是的 是的 是的 分类
车道检测

LaneNet卷积神经网络。有关更多信息,请参见车道检测部署转移学习网络

系列网络 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 分类
VGG-16

VGG-16卷积神经网络。为pretrained VGG-16模型,明白了vgg16

系列网络 不。网络超过PL DDR内存大小 不。网络超过FC模块内存大小。 是的 是的 不。网络超过FC模块内存大小。 是的 分类
VGG-19

VGG-19卷积神经网络。为pretrained VGG-19模型,明白了vgg19

系列网络 不。网络超过PL DDR内存大小 不。网络超过FC模块内存大小。 是的 是的 不。网络超过FC模块内存大小。 是的 分类
Darknet-19

Darknet-19卷积神经网络。为pretrained darknet-19模型,明白了darknet19

系列网络 是的 是的 是的 是的 是的 是的 分类
雷达的分类 卷积神经网络,使用微多普勒特征识别和分类的对象。有关更多信息,请参见骑自行车和行人分类利用FPGA 系列网络 是的 是的 是的 是的 是的 是的 分类和软件定义无线电(SDR)
缺陷检测snet_defnet snet_defnet是一个自定义AlexNet网络用于识别和分类的缺陷。有关更多信息,请参见缺陷检测 系列网络 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 分类
缺陷检测snet_blemdetnet snet_blemdetnet是一个定制的卷积神经网络用于识别和分类的缺陷。有关更多信息,请参见缺陷检测 系列网络 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 分类
DarkNet-53 Darknet-53卷积神经网络。为pretrained DarkNet-53模型,明白了darknet53 基于有向无环图(DAG)网络 是的 是的 是的 是的 是的 没有 分类
ResNet-18 ResNet-18卷积神经网络。为pretrained ResNet-18模型,明白了resnet18 基于有向无环图(DAG)网络 是的 是的 是的 是的 是的 是的 分类
ResNet-50 ResNet-50卷积神经网络。为pretrained ResNet-50模型,明白了resnet50 基于有向无环图(DAG)网络 不。网络超过PL DDR内存大小。 不。网络超过PL DDR内存大小。 是的 是的 是的 是的 分类
ResNet-based YOLO v2意思 你只看一次(YOLO)意思是对象探测器,解码卷积神经网络的预测并生成边界框的对象。有关更多信息,请参见车辆检测使用基于DAG网络YOLO v2意思部署到FPGA 基于有向无环图(DAG)网络 是的 是的 是的 是的 是的 是的 对象检测
MobileNetV2 MobileNet-v2卷积神经网络。为pretrained MobileNet-v2模型,明白了mobilenetv2 基于有向无环图(DAG)网络 是的 是的 是的 是的 是的 是的 分类
GoogLeNet GoogLeNet卷积神经网络。为pretrained GoogLeNet模型,明白了googlenet 基于有向无环图(DAG)网络 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 不。使用比特流,使LRNBlockGeneration房地产为比特流的处理器配置和生成比特流。 分类
PoseNet 人体姿态估计网络。 基于有向无环图(DAG)网络 是的。 是的 是的 是的 是的 是的 分割
U-Net U-Net卷积神经网络用于语义图像分割。 基于有向无环图(DAG)网络 不。超大的PL DDR内存。 不。超大的PL DDR内存。 不。超大的PL DDR内存。 不。超大的PL DDR内存。 不。超大的PL DDR内存。 是的 分割
SqueezeNet-based YOLO v3意思 you-only-look-once (YOLO)意思v3对象探测器是一个多尺度对象检测网络,使用一个特征提取网络和多个检测头在多尺度做出预测。 dlnetwork对象 是的 是的 没有 没有 没有 没有 对象检测
Sequence-to-sequence分类 分类序列数据使用的每个时间步长短期记忆(LSTM)网络。看到在fpga上运行Sequence-to-Sequence分类使用深度学习HDL工具箱 长短期记忆(LSTM)网络 是的 是的 没有 没有 没有 没有 序列数据分类
时间序列预测 预测时间序列数据使用一个长的短期记忆(LSTM)网络。看到在FPGA上运行序列预测使用深度学习HDL工具箱 长短期记忆(LSTM)网络 是的 是的 没有 没有 没有 没有 预测时间序列数据
词词文本生成 生成文本词词通过短期记忆(LSTM)网络。看到fpga上生成词词文本使用深度学习HDL工具箱 长短期记忆(LSTM)网络 是的 是的 没有 没有 没有 没有 序列数据预测
YAMNet Pretrained音频分类网络。看到yamnet(音频工具箱)YAMNet网络部署到fpga和没有跨层均衡 系列网络 是的 是的 是的 是的 是的 是的 音频数据分类
语义分割使用扩张的隆起 语义分割使用扩张卷积层增加覆盖范围不增加计算参数的数量。看到部署语义分割网络使用扩张卷曲FPGA 系列网络 是的 是的 是的 是的 是的 是的 分割
时间序列预测 预测时间序列数据使用一个长的短期记忆(LSTM)网络。看到使用格勒乌层序列预测运行在一个FPGA 封闭的复发性单元(格勒乌)层网络 是的 是的 没有 没有 没有 没有 预测时间序列数据
裁剪图像分类网络 裁剪图像分类网络。看到图像识别网络部署在FPGA上,没有修剪 系列网络 是的 是的 是的 是的 是的 是的 图像分类
很深的超分辨率(VDSR)网络 从低分辨率图像通过使用创建高分辨率图像VDSR网络。看到提高图像分辨率使用VDSR网络在FPGA上运行 系列网络 是的 是的 是的 是的 是的 是的 图像处理

万博1manbetx支持层

深度学习HDL工具箱支持这些表中列出的层。万博1manbetx

输入层

层类型硬件(HW)或软件(SW) 描述和局限性 INT8兼容

imageInputLayer

西南

图像输入层输入二维图像网络和应用数据规范化。归一化选项中心零位zscore可以运行在硬件如果编译方法HardwareNormalization启用参数的输入数据数据类型。如果HardwareNormalization选择是不启用或输入数据类型int8正常化运行软件。不支持标准化指定使用一个函数处理。万博1manbetx看到图像输入层标准化硬件实现。当归一化属性设置为没有一个激活函数不能用于imageInputLayer

是的。在西南经营成一个数据类型。

featureInputLayer

西南 功能网络输入层的输入特性数据和应用数据规范化。 没有

sequenceInputLayer

西南 一个序列输入序列数据网络输入层。 没有

卷积和完全连接层

层类型硬件(HW)或软件(SW) 层输出格式 描述和局限性 INT8兼容

convolution2dLayer

HW 卷积(Conv)

一个二维卷积层滑动卷积过滤器适用于输入。

在生成代码时使用这个网络层,这些限制适用:

  • 过滤器的大小必须是1 - 66。

  • 步幅大小必须保护和广场。

  • 填充大小必须在主范围。

  • 扩张因素支持多达16(16),必万博1manbetx须广场。

  • 填充不支持价值。万博1manbetx

  • 当膨胀系数是3的倍数计算扩张现有过滤器的大小必须有一个最大值卷积过滤器大小限制。在所有其他情况下,滤波器的大小可以一样大的最大值现有卷积过滤器的大小。

是的

groupedConvolution2dLayer

HW 卷积(Conv)

一层二维分组卷积分离输入通道进入组织和应用滑动卷积过滤器。使用分组卷积层channel-wise分离(也称为深度方面可分)卷积。

现在支持代码生成的二维卷积层分组万博1manbetxNumGroups属性设置为“channel-wise”

在生成代码时使用这个网络层,这些限制适用:

  • 过滤器尺寸必须保护和广场。例如[1]或[14]14。当NumGroups是设置为“channel-wise”必须3 - 14,过滤器的大小。

  • 步幅大小必须保护和广场。

  • 填充大小必须在主范围。

  • 膨胀系数必须[1]。

  • NumGroups不是设置为“channel-wise”必须1或2,数量的组。

  • 输入特征数量必须大于单一的平方根的倍数ConvThreadNumber

  • NumGroups不是设置为“channel-wise”,每组必须是一个多个过滤器的数量的平方根ConvThreadNumber

是的

transposedConv2dLayer

HW 卷积(Conv)

一层转置二维卷积upsamples特征图。

在生成代码时使用这个网络层,这些限制适用:

  • 过滤器尺寸必须1 - 8和广场。

  • 步幅的大小必须是1 - 66和广场。

  • 填充大小必须在主范围。

  • 填充不支持价值。万博1manbetx

是的

fullyConnectedLayer

HW 完全连接(FC)

一个完全连接层增加权重矩阵的输入,然后添加一个偏差向量。

在生成代码时使用这个网络层,这些限制适用:

是的

激活层

层类型硬件(HW)或软件(SW) 层输出格式 描述和局限性 INT8兼容

reluLayer

HW 层是融合。

ReLU层进行阈值操作每个元素的输入任何值小于零设置为零。

支持ReLU层只有当它是之前任何万博1manbetx这些层:

  • 卷积

  • 完全连接

  • 加法器

是的

leakyReluLayer

HW 层是融合。

漏水的ReLU层执行一个阈值操作,任何输入值小于零乘以一个固定的标量。

漏水的ReLU层支持只有当它是之前任何这些层万博1manbetx:

  • 卷积

  • 完全连接

  • 加法器

是的

clippedReluLayer

HW 层是融合。

剪ReLU层执行一个阈值操作,任何输入值小于零设置为零,任何值高于剪切的剪切上限设置为上限价值。

支持剪ReLU层只有当它是之前任何这些层:万博1manbetx

  • 卷积

  • 完全连接

  • 加法器

是的

tanhLayer

HW 继承输入

双曲正切(双曲正切)激活层应用上的双曲正切函数层输入。

没有

正常化,辍学,种植层

层类型硬件(HW)或软件(SW) 层输出格式 描述和局限性 INT8兼容

batchNormalizationLayer

HW 层是融合。

一批标准化层规范化mini-batch每个输入通道。

之前一批标准化层支持当卷积图像输入层或层。万博1manbetx

是的

crossChannelNormalizationLayer

HW 卷积(Conv)

channel-wise当地响应(交叉流道)归一化层进行channel-wise正常化。

WindowChannelSize必须在3 - 9代码生成。

是的。运行在HW单一数据类型。

dropoutLayer

等待在推理 等待在推理

一个辍学层随机集输入元素在一个给定的概率为零。

是的

resize2dLayer(图像处理工具箱)

HW 继承输入

一层二维调整尺寸的二维输入比例因子,指定高度和宽度,或参考输入特性图的大小。

在生成代码时使用这个网络层,这些限制适用:

  • 方法属性必须设置为最近的

  • GeometricTransformationMode属性必须设置为half-pixel

  • NearestRoundingMode属性必须设置为

  • 输出的比例大小输入大小必须是一个整数范围两到256人。

没有

池和Unpooling层

层类型硬件(HW)或软件(SW) 层输出格式 描述和局限性 INT8兼容

maxPooling2dLayer

HW 卷积(Conv)

最大池层执行downsampling除以输入矩形池区域和计算每个区域的最大。

在生成代码时使用这个网络层,这些限制适用:

  • 池的大小必须是1 - 66。

  • 步幅大小必须保护和广场。

  • 填充大小必须在范围0 - 6。

HasUnpoolingOutputs是支持万博1manbetx的。当启用该参数时,这些限制申请这一层的代码生成:

  • 池的大小必须2×2或3×3。

  • 步幅的大小必须一样的过滤器的大小。

  • 不支持填充大小。万博1manbetx

  • 池的大小和步幅大小必须广场。例如,[2 2]。

是的

不,当HasUnpoolingOutputs启用。

maxUnpooling2dLayer

HW 卷积(Conv)

马克斯unpooling层unpools马克斯池的输出层。

没有

averagePooling2dLayer

HW 卷积(Conv)

平均淤积一层一层执行downsampling除以输入矩形池区域和计算每个区域的平均值。

在生成代码时使用这个网络层,这些限制适用:

  • 池的大小必须是1 - 66。

  • 步幅大小必须保护和广场。

  • 填充大小必须在范围0 - 6。

是的

globalAveragePooling2dLayer

HW 卷积(Conv)

全球平均池层执行将采样通过计算平均高度和宽度尺寸的输入。

在生成代码时使用这个网络层,这些限制适用:

  • 池的大小必须是1 - 66和广场。

是的

结合层

层类型硬件(HW)或软件(SW) 层输出格式 描述和局限性 INT8兼容

additionLayer

HW 继承输入。

除了一层来自多个神经网络的输入层element-wise补充道。

现在,您可以为该层所生成的代码int8数据类型结合层时漏ReLU或剪ReLU层。

在生成代码时使用这个网络层,这些限制适用:

  • 输入层必须有相同的输出层格式。例如,两层必须conv输出格式或fc输出格式。

是的

depthConcatenationLayer

HW 继承输入。

深度连接层需要输入,有相同的高度和宽度和连接他们的第三个维度(通道尺寸)。

在生成代码时使用这个网络层,这些限制适用:

  • 输入激活特性一定数量的平方根的倍数ConvThreadNumber

  • 层有conv输出格式和层有一个FC输出格式不能被连接在一起。

是的

multiplicationLayer

HW 继承输入 一个乘法层繁殖element-wise来自多个神经网络的输入层。 没有

序列层

层类型硬件(HW)或软件(SW) 描述和局限性 INT8兼容

lstmLayer

HW

LSTM层长期学习时间步骤时间序列和序列数据之间的依赖关系。层执行添加剂的相互作用,可以帮助改善梯度流长序列在训练。

在生成代码时使用这个网络层,这些限制适用:

  • 的输入必须是单一数据类型。

  • OutputMode属性必须设置为序列

没有

gruLayer

HW

格勒乌层是一个RNN层,学习时间步骤时间序列和序列数据之间的依赖关系。

在生成代码时使用这个网络层,这些限制适用:

  • 输入必须是单数据类型。

  • 你必须设置格勒乌层OutputMode序列

没有

输出层

层类型硬件(HW)或软件(SW) 描述和局限性 INT8兼容

softmaxLayer

西南和HW

softmax层softmax函数适用于输入。

如果将softmax层是在硬件中实现:

  • 输入必须在-87到88之间。

  • Softmax层之后,加法器层不支持或深度连接层。万博1manbetx

  • 这一层的输入必须格式1)×(n, n×1, 1-by-1-by-N N-by-1-by-1, 1-by-N-by-1。

  • 如果深度学习的卷积模块处理器启用了卷积的平方根线程数量必须是两个不可或缺的力量。如果不是,该层是软件实现的。

是的。在西南经营成一个数据类型。

classificationLayer

西南

一个分类层计算熵损失有互斥类的多类分类问题。

是的

regressionLayer

西南

一层回归计算均方误差损失一半回归问题。

是的

sigmoidLayer

西南和HW

乙状结肠层乙状结肠函数适用于输入。

当数据类型乙状结肠层深度学习的自定义模块中实现处理器配置。在生成代码时使用这个网络层,数据类型这些限制适用:

  • 输入必须在-87到88之间。

在西南经营成一个数据类型。

是的。当数据类型int8乙状结肠层实现完全连接(FC)模块的深度学习处理器配置。在生成代码时使用这个网络层,int8数据类型这些限制适用:

  • 输入必须在-87到88之间。

  • 乙状结肠层之后,加法器层不支持或深度连接层。万博1manbetx

  • 这一层的输入必须格式1)×(n, n×1, 1-by-1-by-N N-by-1-by-1, 1-by-N-by-1。

  • 如果深度学习的卷积模块处理器启用了卷积的平方根线程数量必须是两个不可或缺的力量。如果不是,该层是软件实现的。

Keras和ONNX层

层类型硬件(HW)或软件(SW) 层输出格式 描述和局限性 INT8兼容
nnet.keras.layer.FlattenCStyleLayer HW 层将融合

平激活成一维层假设c风格的(行)。

一个nnet.keras.layer.FlattenCStyleLayer只有当万博1manbetx它是紧随其后的是一个完全支持连接层。

是的

nnet.keras.layer.ZeroPadding2dLayer HW 层将会融合。

零填充层为二维输入。

一个nnet.keras.layer.ZeroPadding2dLayer只有当万博1manbetx它是支持之前卷积层或maxpool层。支持零填充层时,后跟一个分组卷积层。万博1manbetx

是的

自定义图层

层类型硬件(HW)或软件(SW) 层输出格式 描述和局限性 INT8兼容
自定义图层 HW 继承输入 自定义图层,有或没有可学的参数,定义你的问题。学习如何定义您的自定义层深度学习,明白了创建深度学习处理器配置自定义层 没有

万博1manbetx支持董事会

这些板是由深度学习HDL工具箱:万博1manbetx

第三方综合工具和版本的支持万博1manbetx

深度学习HDL工具箱已经测试:

  • Xilinx Vivado®2022.1设计套件

  • 英特尔第四的®黄金标准的21.1

图像输入层标准化硬件实现

使硬件实现图像归一化函数的输入层,设置HardwareNormalization论点的编译方法汽车。当HardwareNormalization被设置为汽车编译方法寻找加法和乘法的存在层硬件上实现标准化函数。标准化硬件上实现了:

  • 创建一个新的不断层,这一层持有的价值减去。

  • 使用现有的加法和乘法层。使用的层依赖于标准化函数实现。

常数层缓冲区内容

此表描述层缓冲区中存储的值常数。

归一化函数 数量的常量 常数层缓冲值
zerocenter 1 ——意思是
zscore 2 第一个常量值的意思是。第二个恒定值1 / StandardDeviation

相关的话题