文章目录 前情提要RNNLSTM TransformerVision Transformer (ViT)Swin Transormer 前情提要 RNN RNN之所以可以解决序列问题,是因为它可以记住每一时刻的信息,每一时刻的隐藏层的输出向量不仅由该时刻的输入决定,还由上一时刻的隐藏层的输出决定。 LSTM Transformer Vision Transformer (ViT) Swin Transormer