GRU(Gated Recurrent Unit)也稱門控循環單元結構,它也是傳統RNN的變體,同LSTM一樣能夠有效捕捉長序列之間的語義關聯,緩解梯度消失或爆炸現象。同時它的結構和計算要比LSTM更簡單,它的核心結構可以分為兩個部分去解析: 更新門、重置門。
GRU的優勢: GRU和LSTM作用相同,在捕捉長序列語義關聯時,能有效抑制梯度消失或爆炸, 效果都優於傳統RNN且計算複雜度相比LSTM要小。
GRU的缺點: GRU仍然不能完全解決梯度消失問題,同時其作用RNN的變體,有着RNN結構本身的一大弊端,即不可並行計算,這在數據量和模型體量逐步增大的未來,是RNN發展的關鍵瓶頸。