主要内容

深度学习自定义训练循环

自定义深度学习训练循环和损失函数

如果trainingOptions功能不提供训练选项,你需要你的任务,或自定义输出层不支持所需要的损失函数,你可以定义一个自定义训练循环。万博1manbetx的网络不能使用层创建图表,您可以自定义网络定义为一个函数。欲了解更多,请看自定义训练循环,损失函数和网络

功能

全部展开

dlnetwork 深入学习网络定制培训循环
向前 计算深度学习网络输出进行训练
预测 计算深度学习网络输出推理
adamupdate 使用自适应更新参数矩估计(亚当)
rmspropupdate 更新参数使用根均方传播(RMSProp)
sgdmupdate 更新参数使用随机梯度下降法和动力(个)
dlupdate 更新参数使用自定义函数
minibatchqueue 创建mini-batches深度学习
onehotencode 编码数据标签在一个炎热的向量
onehotdecode 解码概率向量类标签
padsequences 垫或截断数据序列长度相同
初始化 可学的和状态参数进行初始化dlnetwork
resetState 重置状态参数的神经网络
dlarray 深度学习数组为自定义训练循环
dlgradient 计算梯度为自定义训练循环使用自动分化
dlfeval 评估深度学习循环模型定制培训
会变暗 尺寸的标签dlarray
finddim 发现尺寸与指定的标签
stripdims 删除dlarray数据格式
extractdata 从中提取数据dlarray
isdlarray 检查对象是否dlarray
functionToLayerGraph 深度学习模型函数转换为一层图
dlconv 深度学习卷积
dltranspconv 深度学习转置卷积
lstm 长时间的短期记忆
格勒乌 封闭的复发性单元
嵌入 嵌入离散数据
fullyconnect 和所有的加权输入数据和应用的偏见
dlode45 深度学习解决该常微分方程(ODE)
线性整流函数(Rectified Linear Unit) 应用修正线性单元激活
leakyrelu 应用漏水的解决线性单元激活
batchnorm 为每个通道独立规范化数据在所有观测
crosschannelnorm 交叉道square-normalize使用本地响应
groupnorm 规范化数据分组为每个独立观测通道的子集
instancenorm 为每个独立观察规范化在每个通道
layernorm 规范化数据在所有渠道每个独立观察
avgpool 池数据在空间维度平均值
maxpool 池数据最大值
maxunpool Unpool最大池操作的输出
softmax softmax激活应用于渠道维度
乙状结肠 应用乙状结肠激活
乙状结肠 应用乙状结肠激活
crossentropy 叉损失分类任务
l1loss l1损失为回归任务
l2loss l2损失为回归任务
休伯 Huber损失回归任务
均方误差 一半的均方误差
ctc 联结主义的分类(CTC)损失对齐序列分类
dlaccelerate 促进深度学习函数自定义训练循环
AcceleratedFunction 加速深度学习函数
clearCache 明显加速深度学习函数跟踪缓存

主题

自定义训练循环

模型函数

自动分化

深度学习函数加速度