深度学习导入、导出和定制

导入、导出和自定义深度学习网络,并自定义层、训练循环和丢失功能

从TensorFlow™-Keras、Caffe和ONNX™(Open Neural network Exchange)模型格式导入网络和网络架构。您还可以将训练有素的深度学习工具箱™网络导出为ONNX模型格式。

您可以为您的问题定义自己的自定义深度学习层。您可以使用自定义输出层指定自定义损失函数,并定义带有或不带有可学习参数的自定义层。例如,您可以使用带有加权交叉熵损失的自定义加权分类层来处理类分布不平衡的分类问题。定义自定义层后,您可以检查该层是否有效,GPU兼容,输出正确定义的梯度。

如果培训选项函数不提供任务所需的训练选项,或者自定义输出层不支持所需的丢失函数,则可以定义自定义训练循环。对于无法使用图层图创建的网络,可以将自定义网络定义为函数。要了解更多信息,请参阅万博1manbetx定义自定义训练回路、损耗函数和网络.

功能

全部展开

进口卡拉斯网络 导入预训练的Keras网络和权重
进口卡拉斯层 从Keras网络导入层
进口咖啡网 从Caffe导入预训练的卷积神经网络模型
进口咖啡机 从Caffe中导入卷积神经网络层
进口网络 进口pretrainedONNX网络
重要人物 从导入图层ONNX网络
exportONNXNetwork 将网络导出到ONNX模型格式
findPlaceholderLayers 查找从Keras或导入的网络架构中的占位符层ONNX
替换层 在层图中替换层
装配网络 从预先训练的层次构建深度学习网络
占位符层 层替换不受支持的Keras层,万博1manbetxONNX层,或不支持的功能万博1manbetx函数层图
检查层 检查自定义层的有效性
setLearnRateFactor 设置层可学习参数的学习速率因子
setL2Factor 设置层可学习参数的L2正则化因子
getLearnRateFactor 获取层可学习参数的学习率因子
getL2Factor 获取层可学习参数的L2正则化因子
数据链路网络 定制训练循环的深度学习网络
向前地 计算用于培训的深度学习网络输出
预测 计算深度学习网络输出用于推理
阿达木酯 使用自适应矩估计更新参数(Adam)
RMSProupdate 使用均方根传播(RMSProp)更新参数
sgdmupdate 使用随机动量梯度下降(SGDM)更新参数
数据更新 使用自定义函数更新参数
dlarray 用于定制训练循环的深度学习阵列
梯度 使用自动微分计算自定义训练循环的梯度
德尔费瓦尔 评估定制训练循环的深度学习模型
DLM时间 深度学习的批矩阵乘法
会变暗 尺寸的标签dlarray
finddim 查找带有指定标签的尺寸
stripdims 删除dlarray标签
extractdata 从中提取数据dlarray
函数层图 将深度学习模型函数转换为层图
dlconv 深度学习卷积
dltranspconv 深度学习转置卷积
lstm 长时间的短期记忆
格勒乌 门控循环单元
fullyconnect 对所有加权输入数据求和并应用偏差
线性整流函数(Rectified Linear Unit) 应用整流线性单元激活
利基雷卢 应用泄漏整流线性单元激活
批次标准 规格化每个输入数据通道
crosschannelnorm 使用局部响应对交叉通道方形进行规格化
avgpool 将数据集中到空间维度上的平均值
马克斯普尔 将数据池设置为最大值
Maxunpol 取消最大池操作的输出
softmax 对通道维度应用softmax激活
交叉熵 分类任务的交叉熵损失
乙状结肠 应用乙状结肠激活
微卫星 半均方误差

主题

自定义图层

定义自定义深度学习层

了解如何定义自定义深度学习层。

检查自定义层有效性

了解如何检查自定义深度学习层的有效性。

使用可学习参数定义自定义深度学习层

这个例子展示了如何定义一个PReLU层并在卷积神经网络中使用它。

定义具有多个输入的自定义深度学习层

此示例演示如何定义自定义加权加法层并将其用于卷积神经网络。

定义自定义分类输出层

此示例演示如何定义具有平方和误差(SSE)损失的自定义分类输出层,并将其用于卷积神经网络。

定义自定义加权分类层

此示例演示如何定义和创建具有加权交叉熵损失的自定义加权分类输出层。

定义自定义回归输出层

这个例子展示了如何定义一个具有平均绝对误差(MAE)损失的自定义回归输出层,并将其用于卷积神经网络。

指定自定义层向后函数

此示例演示如何定义PReLU层并指定自定义向后函数。

指定自定义输出层向后损耗函数

此示例演示如何定义加权分类层并指定自定义反向损失函数。

网络培训和组装

列车生成对抗网络(GAN)

这个例子展示了如何训练生成性对抗网络(GAN)生成图像。

训练条件生成对抗网络(CGAN)

这个例子展示了如何训练条件生成对抗网络(CGAN)来生成图像。

训练暹罗网络进行降维

这个例子展示了如何通过降维训练暹罗网络来比较手写数字。

训练暹罗网络来比较图像

这个例子展示了如何训练暹罗网络来识别手写字符的相似图像。

定义自定义训练回路、损耗函数和网络

了解如何使用自动区分定义和自定义深度学习训练循环、损失函数和网络。

在自定义训练循环中指定训练选项

了解如何在自定义训练循环中指定常用训练选项。

使用自定义训练循环的训练网络

这个例子展示了如何训练一个使用自定义学习速率计划对手写数字进行分类的网络。

更新自定义训练循环中的批量规范化统计信息

此示例显示如何在自定义训练循环中更新网络状态。

使用dlnetwork对象进行预测

这个例子展示了如何使用数据链路网络对象,将数据拆分为小批量。

基于模型函数的列车网络

这个例子展示了如何通过使用函数而不是层图或图形来创建和训练深度学习网络数据链路网络.

使用模型函数更新批标准化统计信息

此示例显示如何更新定义为函数的网络中的网络状态。

使用模型函数进行预测

这个例子展示了如何使用模型函数进行预测,方法是将数据分割成小批。

比较层权重初始值设定项

这个例子展示了如何使用不同的权重初始化器来训练深度学习网络。

指定自定义权重初始化函数

这个例子展示了如何为卷积层创建自定义权重初始化函数,然后是有漏洞的ReLU层。

从预先训练的Keras层组装网络

这个例子展示了如何从预先训练的Keras网络导入层,用自定义层替换不支持的层,并将层组装到一个网络中准备进行预测。万博1manbetx

多输入多输出网络

多输入多输出网络

了解如何定义和培训具有多输入或多输出的深度学习网络。

多输出列车网络

这个例子展示了如何用多个输出来训练一个深度学习网络,预测手写数字的标签和旋转角度。

组合多输出网络进行预测

代替使用模型函数进行预测,你可以将网络组装成一个达格网络准备好使用函数层图装配网络功能。

自动微分

自动分化背景

了解自动差异化是如何工作的。

在深度学习工具箱中使用自动区分

如何在深度学习中使用自动微分。

支持dlarray的函数列表万博1manbetx

查看支持的函数列表万博1manbetxdlarray对象。

Grad CAM揭示了深度学习决策背后的原因

这个例子展示了如何使用梯度加权类激活映射(grade - cam)技术来理解为什么深度学习网络会做出分类决策。

特色实例