Lancer un Ecommerce Anti Amazon en 24h

 1 jour d'essai gratuit

Formation à GPT3 et ChatGPT
Musclez le contenu + SEO
Définitions

Long short term memory

Long short terme memory (LSTM) est une architecture de réseau de neurones récurrents (RNN) utilisé dans le domaine de l’apprentissage en profondeur (deep learning). À la différence des réseaux neuronaux à propagation avant, le LSTM a des connections de feedback.

Il peut non seulement traiter des data points uniques (tels que des images), mais également des séquences complètes de données (telles que la parole ou la vidéo). Par exemple, le LSTM est applicable à des tâches telles que la reconnaissance d'écriture manuscrite connectée  non segmentée ou connectée ou la reconnaissance vocale.   Bloomberg Business Week a écrit: "Ces pouvoirs font de LSTM le succès le plus commercial de l'IA, utilisé pour tout, de la prédiction des maladies à la composition musicale " .

Une unité LSTM de base est composée d’une cellule, d’une porte d’entrée, d’une porte de sortie et d’une porte d’oubli. La cellule se souvient des valeurs sur des intervalles de temps arbitraires et les trois portes régulent le flux d’information entrant et sortant de la cellule.

Les réseaux LSTM sont bien adaptés à la classification, au traitement et à la prévision sur la base de données chronologiques, car il peut exister des décalages d'une durée inconnue entre les événements importants d'une série chronologique. Les LSTMs ont été développés pour faire face aux problèmes de gradients qui peuvent être rencontrées lors de l’entraîenement des RNNs traditionnels.

EXCLUSIF

35 Formations
Intelligence Artificielle
Marketing Digital
Ecommerce
Forfait illimité: à partir de 166€/mois

Accès 100 collaborateurs

Découvrir

Organisme de formation

 OF N°11756628075 - 17 rue etex, Paris

Recevez des exclus !

Search