一个长而短的记忆网络是一种周期性的记忆神经网络(RNN)。LSTMs擅长学习、处理和分类顺序数据。常见的应用领域包括情绪分析、语言建模、语音识别和视频分析。

训练RNN最流行的方法是通过时间反向传播。然而,消失梯度的问题往往导致参数捕获短期依赖,而来自早期时间步长的信息衰减。相反的问题,爆炸梯度,也可能发生,导致错误急剧增长的每一个时间步。

复发性神经网络。

长短期记忆网络的目的是克服消失梯度的问题,利用门选择性地保留相关的信息,忘记不相关的信息。LSTM网络对时间差的敏感性较低,这使得它比简单的网络神经网络更适合分析顺序数据。

LSTM块的体系结构如下所示。除了传统RNNs中的隐藏状态外,一个LSTM块通常还具有一个记忆单元、输入门、输出门和遗忘门。

长短期内存块。

输入门的权重和偏差控制新值流入单元格的程度。类似地,对遗忘门和输出门的权重和偏差分别控制值在单元中的保留程度和单元中的值用于计算LSTM块的输出激活的程度。

有关LSTM网络的更多细节,请参见深度学习工具箱™

参见:深度学习,机器学习,数据科学,MATLAB GPU计算,人工智能

深度学习和传统机器学习:选择正确的方法