LSTM的来由?
为什么叫LSTM(长短期记忆)?
LSTM(Long-Short Term Memory,LSTM)的名称有些奇特,叫长短期记忆。这个实际反应了这个算法的原理:保持记忆的长短。例如我们人脑,我们的大脑并不是记忆所有的信息,有短期记忆,也有长期记忆。LSTM就是利用这个原理来设计的。
如何更深层地理解记忆:
LSTM的门控机制?
1、遗忘门,决定了以前的记忆还保留多少(控制上一个时刻的内部状态需要遗忘多少信息)
2、输入门,决定了当前的输入,有多少转换为记忆(控制当前时刻的候选状态有多少信息需要保存)
3、输出门,决定了记忆有多少会输出(控制当前时刻的内部状态有多少信息需要输出给外部状 态)
以上可以称为记忆单元的处理。LSTM与普通的RNN相比,增加了记忆单元的输出。
什么是LSTM?
一句话介绍LSTM,它是RNN的进阶版,如果说RNN的最大限度是理解一句话,那么LSTM的最大限度则是理解一段话,详细介绍如下:
LSTM,全称为长短期记忆网络(Long Short Term Memory networks),是一种特殊的RNN,能够学习到长期依赖关系。长短期记忆网络论文首次发表于1997年。由于独特的设计结构,LSTM适合于处理和预测时间序列中间隔和延迟非常长的重要事件。
普通循环神经网络结构图与LSTM结构图
所有的循环神经网络都有着重复的神经网络模块形成链的形式。在普通的RNN中,重复模块结构非常简单,例如一个tanh层。其结构如下:
LSTM避免了长期依赖的问题。可以记住长期信息!LSTM内部有较为复杂的结构。能通过门控状态来选择调整传输的信息,记住需要长时间记忆的信息,忘记不重要的信息,其结构如下:
可通过观看以下视频来学习上述LSTM结构
LSTM结构分析
LSTM网络结构分析

————————————————
部分参考自:https://blog.csdn.net/qq_38251616/article/details/125613533