Long short term memory
Long short terme memory (LSTM) est une architecture de réseau de neurones récurrents (RNN) utilisé dans le domaine de l’apprentissage en profondeur (deep learning). À la différence des réseaux neuronaux à propagation avant, le LSTM a des connections de feedback.
Il peut non seulement traiter des data points uniques (tels que des images), mais également des séquences complètes de données (telles que la parole ou la vidéo). Par exemple, le LSTM est applicable à des tâches telles que la reconnaissance d'écriture manuscrite connectée non segmentée ou connectée ou la reconnaissance vocale. Bloomberg Business Week a écrit: "Ces pouvoirs font de LSTM le succès le plus commercial de l'IA, utilisé pour tout, de la prédiction des maladies à la composition musicale " .
Une unité LSTM de base est composée d’une cellule, d’une porte d’entrée, d’une porte de sortie et d’une porte d’oubli. La cellule se souvient des valeurs sur des intervalles de temps arbitraires et les trois portes régulent le flux d’information entrant et sortant de la cellule.
Les réseaux LSTM sont bien adaptés à la classification, au traitement et à la prévision sur la base de données chronologiques, car il peut exister des décalages d'une durée inconnue entre les événements importants d'une série chronologique. Les LSTMs ont été développés pour faire face aux problèmes de gradients qui peuvent être rencontrées lors de l’entraîenement des RNNs traditionnels.