长短时记忆网络是一种周期性的神经网络(RNN)。LSTMs擅长学习、处理和分类顺序数据。常见的应用领域包括情绪分析、语言建模、语音识别和视频分析。

训练RNN最常用的方法是通过时间反向传播。然而,渐变消失的问题常常导致参数捕捉短期依赖关系,而来自早期时间步骤的信息衰减。相反的问题,即渐变爆炸,也可能会发生,导致错误随着时间步长急剧增长。

复发性神经网络。

长期短期记忆网络的目标是克服渐变消失的问题,使用门有选择地保留相关的信息,忘记不相关的信息。较低的时间间隔敏感性使得LSTM网络比简单的rns更适合分析顺序数据。

LSTM块的体系结构如下所示。LSTM块除了传统RNNs中的隐藏状态外,通常还具有一个内存单元、输入门、输出门和一个遗忘门。

长短时记忆块。

输入门的权重和偏差控制了新值流入单元格的程度。类似地,遗忘门和输出门的权重和偏差分别控制了一个值在单元格中的保留程度和单元格中的值用于计算LSTM块的输出激活的程度。

有关LSTM网络的更多细节,请参见深度学习工具箱™

参见:深度学习,机器学习,数据科学,MATLAB GPU计算,人工智能

深度学习与机器学习:选择最佳方法