1. 概述
在循环神经网络RNN一文中提及到了循环神经网络RNN存在长距离依赖的问题,长短期记忆(Long Short-Term Memory,LSTM)网络便是为了解决RNN中存在的梯度爆炸的问题而提出。在LSTM网络中,主要依靠引入“门”机制来控制信息的传播。
2. 算法原理
2.1. LSTM的网络结构
LSTM的网络结构如下所示(图片来自参考文献):
与循环神经网络RNN相比,LSTM的网络结构要复杂的多。
在LSTM网络中,通过引入三个门来控制信息的传递,这三个门分别为遗忘门(forget gate),输入门(input gate)和输出门(output gate)。门机制是LSTM中重要的概念,那么什么是“门”以及门机制在LSTM中是如何解决长距离依赖的问题的。
2.2. 门机制
现实中的“门”通常解释为出入口,在LSTM网络的门也是一种出入口,但是是控制信息的出入口。门的状态通常有三种状态,分别为全开(信息通过概率为1),全闭(信息通过概率为0)以及半开(信息通过概率介于0和1之间)。在这里,我们发现对于全开,全闭以及半开三种状态下的信息通过可以通过概率来表示,在神经网络中,sigmoid函数也是一个介于0和1之间的表示,可以应用到LSTM中门的计算中。
2.3. LSTM的计算过程
如下是LSTM的网络结构的具体形态,如下所示(图片来自邱锡鹏老师的课件):
其中,$c_{t-1}$表示的是$t-1$时刻的cell state(注:关于cell state,查了多个版本的中文翻译,有翻译为“细胞状态”,有翻译成“单元状态”,邱老师使用的是内部状态,没有一个明确的中文翻译,故在此使用英文),$h_{t-1}$表示的是$t-1$时刻的hidden state(注:与前面的cell state对应),$x_t$表示的是$t$时刻的输入,$f_t$表示的是遗忘门,$i_t$表示的是输入门,$\tilde{c}_t$表示的是候选值(candidate values),$o_t$表示的是输出门。
从图中的数据流向得到的计算流程如下所示:
- 利用$t-1$时刻的hidden state $h_{t-1}$计算遗忘门$f_t$的结果,$f_t$的计算公式如下所示
$$f_t=\sigma \left ( W_fx_t+U_fh_{t-1}+b_f \right )$$
- 利用$t-1$时刻的hidden state $h_{t-1}$计算输入门$i_t$的结果,$i_t$的计算公式如下所示
$$i_t=\sigma \left ( W_ix_t+U_ih_{t-1}+b_i \right )$$
- 利用$t-1$时刻的hidden state $h_{t-1}$计算候选值$\tilde{c}_t$的结果,$\tilde{c}_t$的计算公式如下所示
$$\tilde{c}_t=tanh \left ( W_cx_t+U_ch_{t-1}+b_c \right )$$
- 利用$t-1$时刻的hidden state $h_{t-1}$计算输出门$o_t$的结果,$o_t$的计算公式如下所示
$$o_t=\sigma \left ( W_ox_t+U_oh_{t-1}+b_o \right )$$
- 根据$t$时刻的cell state $c_t$,这里会使用到$t-1$时刻的cell state $c_{t-1}$,遗忘门$f_t$,输入门$i_t$和候选值$\tilde{c}_t$,$c_t$的计算公式如下所示
$$c_t=f_t\odot c_{t-1}+i_t\odot \tilde{c}_t$$
上述的公式是由前面的1,2,3部分的公式组成,也是LSTM网络中的关键的部分,对该公式,我们从如下的几个部分来理解:
- $f_t\odot c_{t-1}$,使用遗忘门$f_t$对$t-1$时刻下的cell state $c_{t-1}$遗忘;
- $i_t\odot \tilde{c}_t$,首先是$\tilde{c}_t$表示的是通过$t$时刻的输入和$t-1$时刻的hidden state $h_{t-1}$需要增加的信息,与输入门$i_t$结合起来就表示整体需要增加的信息;
- 两部分结合表示的是$t$时刻下的cell state下需要从$t-1$时刻下的cell state中保留的部分信息以及$t$时刻下新增信息的总和。
- 根据输出门$o_t$和cell state $c_t$计算外部状态$h_t$,$h_t$的计算公式如下所示
$$h_t=o_t\odot tanh\left ( c_t \right )$$