万博1manbetx支持网络、层板、和工具
万博1manbetx支持Pretrained网络
深度学习HDL工具箱™支持系列的代码生成卷积神经网络(万博1manbetxcnn或回旋网)。您可以生成任何代码训练CNN的计算层支持代码生成。万博1manbetx一个完整的列表,请参阅万博1manbetx支持层。您可以使用一个表中列出的pretrained网络为目标英特尔生成代码®或Xilinx®FPGA板。
网络 | 网络描述 | 类型 | 单一数据类型(航运比特流) | INT8数据类型(航运比特流) | 应用领域 | ||||
ZCU102 | ZC706 | Arria10 SoC | ZCU102 | ZC706 | Arria10 SoC | 分类 | |||
AlexNet | AlexNet卷积神经网络。 |
系列网络 | 不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
分类 |
LogoNet | 标志识别网络(LogoNet)是MATLAB®发达标志识别网络。有关更多信息,请参见标志识别网络。 |
系列网络 | 是的 | 是的 | 是的 | 是的 | 是的 | 是的 | 分类 |
DigitsNet | 数字分类网络。看到创建简单的深度学习网络分类 |
系列网络 | 是的 | 是的 | 是的 | 是的 | 是的 | 是的 | 分类 |
车道检测 | LaneNet卷积神经网络。有关更多信息,请参见车道检测部署转移学习网络。 |
系列网络 | 不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
分类 |
VGG-16 | VGG-16卷积神经网络。为pretrained VGG-16模型,明白了 |
系列网络 | 不。网络超过PL DDR内存大小 | 不。网络超过FC模块内存大小。 | 是的 | 是的 | 不。网络超过FC模块内存大小。 | 是的 | 分类 |
VGG-19 | VGG-19卷积神经网络。为pretrained VGG-19模型,明白了 |
系列网络 | 不。网络超过PL DDR内存大小 | 不。网络超过FC模块内存大小。 | 是的 | 是的 | 不。网络超过FC模块内存大小。 | 是的 | 分类 |
Darknet-19 | Darknet-19卷积神经网络。为pretrained darknet-19模型,明白了 |
系列网络 | 是的 | 是的 | 是的 | 是的 | 是的 | 是的 | 分类 |
雷达的分类 | 卷积神经网络,使用微多普勒特征识别和分类的对象。有关更多信息,请参见骑自行车和行人分类利用FPGA。 | 系列网络 | 是的 | 是的 | 是的 | 是的 | 是的 | 是的 | 分类和软件定义无线电(SDR) |
缺陷检测snet_defnet |
snet_defnet 是一个自定义AlexNet网络用于识别和分类的缺陷。有关更多信息,请参见缺陷检测。 |
系列网络 | 不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
分类 |
缺陷检测snet_blemdetnet |
snet_blemdetnet 是一个定制的卷积神经网络用于识别和分类的缺陷。有关更多信息,请参见缺陷检测。 |
系列网络 | 不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
分类 |
DarkNet-53 | Darknet-53卷积神经网络。为pretrained DarkNet-53模型,明白了darknet53 。 |
基于有向无环图(DAG)网络 | 是的 | 是的 | 是的 | 是的 | 是的 | 没有 | 分类 |
ResNet-18 | ResNet-18卷积神经网络。为pretrained ResNet-18模型,明白了resnet18 。 |
基于有向无环图(DAG)网络 | 是的 | 是的 | 是的 | 是的 | 是的 | 是的 | 分类 |
ResNet-50 | ResNet-50卷积神经网络。为pretrained ResNet-50模型,明白了resnet50 。 |
基于有向无环图(DAG)网络 | 不。网络超过PL DDR内存大小。 | 不。网络超过PL DDR内存大小。 | 是的 | 是的 | 是的 | 是的 | 分类 |
ResNet-based YOLO v2意思 | 你只看一次(YOLO)意思是对象探测器,解码卷积神经网络的预测并生成边界框的对象。有关更多信息,请参见车辆检测使用基于DAG网络YOLO v2意思部署到FPGA。 | 基于有向无环图(DAG)网络 | 是的 | 是的 | 是的 | 是的 | 是的 | 是的 | 对象检测 |
MobileNetV2 | MobileNet-v2卷积神经网络。为pretrained MobileNet-v2模型,明白了mobilenetv2 。 |
基于有向无环图(DAG)网络 | 是的 | 是的 | 是的 | 是的 | 是的 | 是的 | 分类 |
GoogLeNet | GoogLeNet卷积神经网络。为pretrained GoogLeNet模型,明白了googlenet 。 |
基于有向无环图(DAG)网络 | 不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
不。使用比特流,使LRNBlockGeneration 房地产为比特流的处理器配置和生成比特流。 |
分类 |
PoseNet | 人体姿态估计网络。 | 基于有向无环图(DAG)网络 | 是的。 | 是的 | 是的 | 是的 | 是的 | 是的 | 分割 |
U-Net | U-Net卷积神经网络用于语义图像分割。 | 基于有向无环图(DAG)网络 | 不。超大的PL DDR内存。 | 不。超大的PL DDR内存。 | 不。超大的PL DDR内存。 | 不。超大的PL DDR内存。 | 不。超大的PL DDR内存。 | 是的 | 分割 |
SqueezeNet-based YOLO v3意思 | you-only-look-once (YOLO)意思v3对象探测器是一个多尺度对象检测网络,使用一个特征提取网络和多个检测头在多尺度做出预测。 | dlnetwork 对象 |
是的 | 是的 | 没有 | 没有 | 没有 | 没有 | 对象检测 |
Sequence-to-sequence分类 | 分类序列数据使用的每个时间步长短期记忆(LSTM)网络。看到在fpga上运行Sequence-to-Sequence分类使用深度学习HDL工具箱。 | 长短期记忆(LSTM)网络 | 是的 | 是的 | 没有 | 没有 | 没有 | 没有 | 序列数据分类 |
时间序列预测 | 预测时间序列数据使用一个长的短期记忆(LSTM)网络。看到在FPGA上运行序列预测通过深度学习HDL工具箱™ | 长短期记忆(LSTM)网络 | 是的 | 是的 | 没有 | 没有 | 没有 | 没有 | 预测时间序列数据 |
词词文本生成 | 生成文本词词通过短期记忆(LSTM)网络。看到fpga上生成词词文本使用深度学习HDL工具箱。 | 长短期记忆(LSTM)网络 | 是的 | 是的 | 没有 | 没有 | 没有 | 没有 | 序列数据预测 |
万博1manbetx支持层
深度学习HDL工具箱支持这些表中列出的层。万博1manbetx
输入层
层 | 层类型硬件(HW)或软件(SW) | 描述和局限性 | INT8兼容 |
西南 | 图像输入层输入二维图像网络和应用数据规范化。归一化选项 |
是的。在西南经营成一个数据类型。 | |
西南 | 功能网络输入层的输入特性数据和应用数据规范化。 | 没有 | |
西南 | 一个序列输入序列数据网络输入层。 | 没有 |
卷积和完全连接层
层 | 层类型硬件(HW)或软件(SW) | 层输出格式 | 描述和局限性 | INT8兼容 |
HW | 卷积(Conv) | 一个二维卷积层滑动卷积过滤器适用于输入。 在生成代码时使用这个网络层,这些限制适用:
|
是的 |
|
HW | 卷积(Conv) | 一层二维分组卷积分离输入通道进入组织和应用滑动卷积过滤器。使用分组卷积层channel-wise分离(也称为深度方面可分)卷积。 现在支持代码生成的二维卷积层分组万博1manbetx 在生成代码时使用这个网络层,这些限制适用:
|
是的 |
|
HW | 卷积(Conv) | 一层转置二维卷积upsamples特征图。 在生成代码时使用这个网络层,这些限制适用:
|
是的 |
|
HW | 完全连接(FC) | 一个完全连接层增加权重矩阵的输入,然后添加一个偏差向量。 在生成代码时使用这个网络层,这些限制适用:
|
是的 |
激活层
层 | 层类型硬件(HW)或软件(SW) | 层输出格式 | 描述和局限性 | INT8兼容 |
HW | 层是融合。 | ReLU层进行阈值操作每个元素的输入任何值小于零设置为零。 支持ReLU层只有当它是之前任何万博1manbetx这些层:
|
是的 |
|
HW | 层是融合。 | 漏水的ReLU层执行一个阈值操作,任何输入值小于零乘以一个固定的标量。 漏水的ReLU层支持只有当它是之前任何这些层万博1manbetx:
|
是的 |
|
HW | 层是融合。 | 剪ReLU层执行一个阈值操作,任何输入值小于零设置为零,任何值高于剪切的剪切上限设置为上限价值。 支持剪ReLU层只有当它是之前任何这些层:万博1manbetx
|
是的 |
|
HW | 继承输入 | 双曲正切(双曲正切)激活层应用上的双曲正切函数层输入。 |
没有 |
正常化,辍学,种植层
层 | 层类型硬件(HW)或软件(SW) | 层输出格式 | 描述和局限性 | INT8兼容 |
HW | 层是融合。 | 一批标准化层规范化mini-batch每个输入通道。 之前一批标准化层支持当卷积图像输入层或层。万博1manbetx |
是的 |
|
HW | 卷积(Conv) | channel-wise当地响应(交叉流道)归一化层进行channel-wise正常化。 的 |
是的。运行在HW单一数据类型。 |
|
等待在推理 | 等待在推理 | 一个辍学层随机集输入元素在一个给定的概率为零。 |
是的 |
|
|
HW | 继承输入 | 一层二维调整尺寸的二维输入比例因子,指定高度和宽度,或参考输入特性图的大小。 在生成代码时使用这个网络层,这些限制适用:
|
没有 |
池和Unpooling层
层 | 层类型硬件(HW)或软件(SW) | 层输出格式 | 描述和局限性 | INT8兼容 |
HW | 卷积(Conv) | 最大池层执行downsampling除以输入矩形池区域和计算每个区域的最大。 在生成代码时使用这个网络层,这些限制适用:
|
是的 不,当 |
|
HW | 卷积(Conv) | 马克斯unpooling层unpools马克斯池的输出层。 |
没有 | |
HW | 卷积(Conv) | 平均淤积一层一层执行downsampling除以输入矩形池区域和计算每个区域的平均值。 在生成代码时使用这个网络层,这些限制适用:
|
是的 |
|
HW | 卷积(Conv) | 全球平均池层执行将采样通过计算平均高度和宽度尺寸的输入。 在生成代码时使用这个网络层,这些限制适用:
|
是的 |
结合层
层 | 层类型硬件(HW)或软件(SW) | 层输出格式 | 描述和局限性 | INT8兼容 |
HW | 继承输入。 | 除了一层来自多个神经网络的输入层element-wise补充道。 现在,您可以为该层所生成的代码 在生成代码时使用这个网络层,这些限制适用:
|
是的 | |
HW | 继承输入。 | 深度连接层需要输入,有相同的高度和宽度和连接他们的第三个维度(通道尺寸)。 在生成代码时使用这个网络层,这些限制适用:
|
是的 |
|
HW | 继承输入 | 一个乘法层繁殖element-wise来自多个神经网络的输入层。 | 没有 |
序列层
层 | 层类型硬件(HW)或软件(SW) | 描述和局限性 | INT8兼容 |
---|---|---|---|
HW |
LSTM层长期学习时间步骤时间序列和序列数据之间的依赖关系。层执行添加剂的相互作用,可以帮助改善梯度流长序列在训练。 在生成代码时使用这个网络层,这些限制适用:
|
没有 |
输出层
层 | 层类型硬件(HW)或软件(SW) | 描述和局限性 | INT8兼容 |
西南和HW | softmax层softmax函数适用于输入。 如果将softmax层是在硬件中实现:
|
是的。在西南经营成一个数据类型。 |
|
西南 | 一个分类层计算熵损失有互斥类的多类分类问题。 |
是的 |
|
西南 | 一层回归计算均方误差损失一半回归问题。 |
是的 |
|
西南和HW | 乙状结肠层乙状结肠函数适用于输入。 当数据类型
在西南经营成一个数据类型。 |
是的。当数据类型
|
Keras和ONNX层
层 | 层类型硬件(HW)或软件(SW) | 层输出格式 | 描述和局限性 | INT8兼容 |
nnet.keras.layer.FlattenCStyleLayer |
HW | 层将融合 | 平激活成一维层假设c风格的(行)。 一个 |
是的 |
nnet.keras.layer.ZeroPadding2dLayer |
HW | 层将会融合。 | 零填充层为二维输入。 一个 |
是的 |
自定义图层
层 | 层类型硬件(HW)或软件(SW) | 层输出格式 | 描述和局限性 | INT8兼容 |
---|---|---|---|---|
自定义图层 | HW | 继承输入 | 自定义图层,有或没有可学的参数,定义你的问题。学习如何定义您的自定义层深度学习,明白了创建深度学习处理器配置自定义层。 | 没有 |
万博1manbetx支持董事会
这些板是由深度学习HDL工具箱:万博1manbetx
Xilinx Zynq®-7000年ZC706
英特尔Arria®10 SoC
Xilinx Zynq UltraScale +™MPSoC ZCU102
第三方综合工具和版本的支持万博1manbetx
深度学习HDL工具箱已经测试:
Xilinx Vivado®2020.2设计套件
英特尔第四的®黄金标准20.1.1
图像输入层标准化硬件实现
使硬件实现图像归一化函数的输入层,设置HardwareNormalization
论点的编译
方法汽车
或在
。当HardwareNormalization
被设置为汽车
编译方法寻找加法和乘法的存在层硬件上实现标准化函数。标准化硬件上实现了:
创建一个新的不断层,这一层持有的价值减去。
使用现有的加法和乘法层。使用的层依赖于标准化函数实现。
常数层缓冲区内容
此表描述层缓冲区中存储的值常数。
归一化函数 | 数量的常量 | 常数层缓冲值 |
---|---|---|
zerocenter |
1 | ——意思是 |
zscore |
2 | 第一个常量值的意思是 。第二个恒定值1 / StandardDeviation |