长短期记忆网络是一种循环记忆神经网络(RNN)。LSTMs擅长学习、处理和分类顺序数据。常见的应用领域包括情感分析、语言建模、语音识别和视频分析。

训练RNN最常用的方法是通过时间反向传播。然而,梯度消失的问题往往导致参数捕获短期依赖,而来自早期时间步骤的信息衰减。相反的问题,爆炸梯度,也可能发生,导致错误急剧增长的每一个时间步骤。

复发性神经网络。

长短期记忆网络的目的是利用“门”,选择性地保留相关信息,遗忘不相关信息,从而克服梯度消失的问题。LSTM网络对时间间隔的敏感性较低,这使得LSTM网络比简单的rnn更好地分析序列数据。

LSTM块的体系结构如下所示。除了传统rnn中的隐藏状态外,LSTM块通常还有存储单元、输入门、输出门和遗忘门。

长短期记忆块。

输入门的权重和偏差控制新值流入单元的程度。类似地,遗忘门和输出门的权重和偏差分别控制一个值在细胞中停留的程度和在细胞中用于计算LSTM块的输出激活的程度。

有关LSTM网络的详细信息,请参见深度学习工具箱™

参见:深度学习机器学习数据科学MATLAB GPU计算人工智能

深度学习与传统机器学习:选择正确的方法