深度学习进口,出口和定制

进口,导出和自定义深度学习网络,以及自定义层,培训循环和损耗功能

从TensorFlow™-Keras、Caffe和ONNX™(Open Neural network Exchange)模型格式导入网络和网络架构。您还可以将训练有素的深度学习工具箱™网络导出为ONNX模型格式。

您可以为您的问题定义自己的自定义深度学习层。您可以使用自定义输出层指定自定义损失函数,并定义带有或不带有可学习参数的自定义层。例如,您可以使用带有加权交叉熵损失的自定义加权分类层来处理类分布不平衡的分类问题。定义自定义层后,您可以检查该层是否有效,GPU兼容,输出正确定义的梯度。

如果是培训选项功能不提供您需要的培训选项,或者自定义输出图层不支持您需要的丢失功能,然后可以定义自定义训练循环。万博1manbetx对于无法使用图层图创建的网络,您可以将自定义网络定义为函数。要了解更多信息,请参阅定义自定义培训循环,丢失功能和网络

职能

全部展开

importKerasnetwork. 进口佩带的Keras网络和重量
importKeraslayers. 从Keras网络导入层
ImportCaffenetwork. 从Caffe导入预训练的卷积神经网络模型
ImportCaffelayers. 从Caffe进口卷积神经网络层
importonnxnetwork. 进口pretrainedonnx.网络
importonnxLayers. 导入层onnx.网络
exportonnxnetwork. 导出网络到onnx.模型格式
FindPlaceHolderLayers. 查找从Keras或导入的网络架构中的占位符层onnx.
替换剂 在层图中替换层
汇编 从佩带的层组装深度学习网络
占位持票人 层替换不支持的keras层,万博1manbetxonnx.图层或不支持的功能万博1manbetxfunctiontolayergraph.
核对层 检查自定义层的有效性
setlearnratefactor. 设置层可学习参数的学习速率因子
setl2factor. SET L2 Liqualization参数的正则化因子
getLearnRateFactor 了解图层学习参数的速率因子
getl2factor. 获取图层学习参数的L2正则化因子
dlnetwork. 定制培训循环深入学习网络
向前 计算深度学习网络输出进行培训
预测 计算深度学习网络输出用于推理
adamupdate. 使用自适应矩估计更新参数(Adam)
rmspropupdate. 使用均方根传播(RMSProp)更新参数
sgdmupdate. 使用随机动量梯度下降(SGDM)更新参数
dlupdate. 使用自定义功能更新参数
dlarray 定制培训循环的深度学习阵列
Dlgradient. 使用自动差异计算自定义训练环路的渐变
dlfeval. 评估定制训练循环的深度学习模型
dlmti 深度学习的批矩阵乘法
会变暗 尺寸的标签dlarray
finddim 查找带有指定标签的尺寸
stripdims 删除dlarray标签
extractdata 从中提取数据dlarray
functiontolayergraph. 将深度学习模型函数转换为图层图
DLCONV. 深入学习卷积
dltranspconv. 深度学习转置卷积
LSTM. 长时间的短期记忆
格勒乌 门控复发单位
fullyconnect 总和所有加权输入数据并应用偏差
线性整流函数(Rectified Linear Unit) 应用整流线性单元激活
leakyrelu. 应用泄漏整流线性单元激活
Batchnorm. 规格化每个输入数据通道
crosschannelnorm 交叉通道方形 - 使用当地响应进行正常化
avgpool. 池数据到空间尺寸的平均值
maxpool. 池数据到最大值
maxunpool. unpool最大池操作的输出
softmax. 对通道维度应用softmax激活
基于分子 分类任务的交叉熵损耗
乙状结肠 适用SIGMOID激活
MSE 半均方误差

主题

自定义图层

定义自定义深度学习层

了解如何定义自定义深度学习图层。

检查自定义层有效性

了解如何检查自定义深度学习层的有效性。

使用可学习参数定义自定义深度学习层

此示例显示如何定义ProLu层并在卷积神经网络中使用它。

定义具有多个输入的自定义深度学习层

此示例显示如何定义自定义加权附加层并在卷积神经网络中使用它。

定义自定义分类输出层

此示例显示了如何定义自定义分类输出层,其总和误差(SSE)丢失和在卷积神经网络中使用它。

定义自定义加权分类层

此示例显示如何使用加权交叉熵丢失来定义和创建自定义加权分类输出层。

定义自定义回归输出层

这个例子展示了如何定义一个具有平均绝对误差(MAE)损失的自定义回归输出层,并将其用于卷积神经网络。

指定自定义层向后函数

此示例显示如何定义PRELU层并指定自定义后向功能。

指定自定义输出层向后损耗功能

此示例显示如何定义加权分类层并指定自定义后向损耗函数。

网络培训和装配

火车生成对抗网络(GaN)

此示例显示如何训练生成的对抗性网络(GAN)生成图像。

火车条件生成对抗网络(Cgan)

此示例显示如何培训有条件的生成对冲网络(CGAN)以生成图像。

培训暹罗网络以进行维度减少

此示例显示如何培训暹罗网络以使用维度减少比较手写数字。

训练暹罗网络以比较图像

此示例显示如何培训暹罗网络以识别手写字符的类似图像。

定义自定义培训循环,丢失功能和网络

了解如何使用自动差异定义和自定义深度学习培训循环,丢失功能和网络。

在自定义培训循环中指定培训选项

了解如何在自定义培训循环中指定常用培训选项。

使用自定义训练循环训练网络

此示例显示如何训练将手写数字与自定义学习率计划分类的网络。

在自定义训练循环中更新批量标准化统计信息

此示例显示如何在自定义训练循环中更新网络状态。

使用DLNetwork对象进行预测

这个例子展示了如何使用dlnetwork.通过将数据拆分为迷你批量来实现对象。

使用模型功能列车网络

此示例显示如何通过使用函数而不是图层图或者创建和培训深度学习网络dlnetwork.

使用模型函数更新批量归一化统计信息

此示例显示如何在定义为函数的网络中更新网络状态。

使用模型函数进行预测

这个例子展示了如何使用模型函数进行预测,方法是将数据分割成小批。

比较层重量初始化器

此示例显示如何使用不同的权重初始化器培训深度学习网络。

指定自定义权重初始化功能

这个例子展示了如何为卷积层创建自定义权重初始化函数,然后是有漏洞的ReLU层。

从预先训练的Keras层组装网络

这个例子展示了如何从预先训练的Keras网络导入层,用自定义层替换不支持的层,并将层组装到一个网络中准备进行预测。万博1manbetx

多输入多输出网络

多输入多输出网络

了解如何定义和培训具有多个输入或多个输出的深度学习网络。

带多个输出的火车网络

这个例子展示了如何用多个输出来训练一个深度学习网络,预测手写数字的标签和旋转角度。

组装多输出网络以进行预测

代替使用模型函数进行预测,你可以将网络组装成一个Dagnetwork.准备使用预测functiontolayergraph.汇编职能。

自动分化

自动分化背景

了解自动分化的工作原理。

在深度学习工具箱中使用自动区分

如何在深度学习中使用自动分化。

Dlarray支持的函数列表万博1manbetx

查看支持的函数列表万博1manbetxdlarray对象。

Grad-Cam揭示为什么深入学习决策

这个例子展示了如何使用梯度加权类激活映射(grade - cam)技术来理解为什么深度学习网络会做出分类决策。

特色例子