Prédiction des séries temporelles en deep learning - Partie1

Concepts d'attention dans les modèles Seq2Seq. Codage du modèle multivarié DA-RNN sous Python avec Keras / Tensorflow.

Ratings 4.48 / 5.00
Prédiction des séries temporelles en deep learning - Partie1

What You Will Learn!

  • Comprendre et coder le concept d'attention spatio-temporelle afin d'améliorer les prédictions sur les séries temporelles
  • Coder des réseaux de prédictions de séries temporelles de type séquence-vers-séquence univariés et multivariés
  • Coder les attentions de Badhanau et de Luong dans les modèles de prédiction
  • Coder un réseau de prédiction de type DA-RNN

Description

Ce cours fait suite à ma première formation "Formation au deep learning avec Python (Keras / Tensorflow)" qui vous a permis de faire une initiation sur la prédiction des séries temporelles.

Pour aller plus loin, cette formation va vous permettre d'introduire des concepts d'attention utilisés pour réaliser différents modèles de prédiction. Vous allez découvrir en particulier le modèle DA-RNN. Nous utiliserons les librairies telles que Tensorflow, Keras, Pandas, Numpy, Scikit learn, ...

Les travaux sont accessibles et exploitables en ligne grâce à l'utilisation des carnets Jupyter avec Google Colab. Aucune installation de logiciel spécifique sur son ordinateur n'est requise car tout le travail se fait en ligne.

A chaque étape d'apprentissage de ce cours, de nouveaux concepts sont introduits. Des explications claires permettent de bien les comprendre à travers 6 thèmes d'étude :

  • Quelques rappels sur les modèles basiques de prédictions de séries temporelles qui utilisent des couches récurrentes

  • Comprendre et coder les concepts de base de l'attention dans les modèles basiques.

  • Coder et mettre en œuvre  le modèle End-to-End Memory Network

  • Appliquer les modèles de type Séquence vers Séquence (Seq2Seq) à la prédiction de l'énergie produite par des panneaux photovoltaïques

  • Comprendre et coder l'attention de Badhanau et de Luong aux modèles Séquence vers Séquence

  • Comprendre et coder un modèle multivarié à attention spatio-temporelle : le modèle DA-RNN

Les activités en Python expliquent clairement comment les exploiter. D'une durée totale de 7h, ce cours vous permettra d'être à l'aise dans l'utilisation avancée de Keras et Tensorflow pour coder vos propres couches et modèles, à partir de classes héritées. Les thèmes d'étude s'appuient sur des documents issus de la recherche scientifique et proposent des concepts importants qui ont été développés ces dernières années.

=== Prérequis ===

Ce cours fait suite à ma première formation "Formation au deep learning avec Python (Keras / Tensorflow)".

Si vous avez déjà une expérience en Deep Learning, vous découvrirez certainement de nouveaux thèmes d'étude qui vous permettront d'élargir vos compétences.

== Aide en ligne ===

Quelque soit votre niveau, je suis disponible pour vous aider dans votre progression. Vous pourrez éventuellement rencontrer des difficultés en Mathématiques ou en programmation car il est bien évident que vous avez tous un bagage différent en fonction de votre parcours (études ou professionnel).

Dans ce sens, il ne faudra surtout pas hésiter à me poser vos questions et je m'engage à y répondre dans un délai raisonnable. Votre motivation est essentielle pour réussir cette formation.

=== Thèmes étudiés dans la formation ===

#1. Rappels sur les modèles basiques du deep learning utilisés pour la prédiction des séries temporelles

Quand on veut prédire ou juste analyser l’évolution d’une certaine quantité dans le temps, (le cours de la bourse par exemple) on est très vite confronté un type de données assez particulier : Les séries temporelles.

L’importance des séries temporelles vient de son omniprésence. En effet, dans presque tous les domaines on les retrouve. Que ce soit en finance, en marketing, en traitement du signal, en physiques, etc...

Nous reverrons rapidement dans cette première partie les résultats essentiels vus dans ma première formation sur le deep learning.


#2. Comprendre et coder les concepts de base de l'attention dans les modèles basiques

Dans sa forme la plus simple, telle que découverte et popularisée par Dzmitry Bahdanau, Kyunghyun Cho et Yoshua Bengio dès 2014, un mécanisme d’attention est défini comme étant un mini-réseau neuronal capable d’évaluer les proportions d’attention qu’il faut accorder à des éléments dans un ensemble ou une liste.

C'est ce concept d'attention qui a permis au domaine de traitement naturel du langage de faire un pas de géant dans les années 2015. Depuis, ce concept a été porté dans le domaine des modèles de prédiction des séries temporelles par différents chercheurs.


#3. Coder et mettre en œuvre  le modèle End-to-End Memory Network

Un modèle de ce type est un modèle qui tente de modéliser le fonctionnement d'un cerveau animal. Ce type de model a été publié dans les documents de Sainbayar Sukhbaatar, Arthur Szlam, Jason Weston, Rob Fergus.


#4. Appliquer les modèles de type Séquence vers Séquence (Seq2Seq) à la prédiction de l'énergie produite par des panneaux photovoltaïques

Un modèle de type séquence vers séquence est un réseau de neurones récurrent qui convertit une séquence de données d'un domaine en entrée vers une nouvelle séquence de données dans un autre domaine en sortie.

Généralement, un modèle séquence à séquence est implémenté en utilisant deux réseaux de neurones récurrents, un premier réseau est un encodeur et le second est un décodeur. On parle aussi d'une architecture encodeur-décodeur. Dans ces modèles, l'entrée et la sortie ne sont pas nécessairement de la même longueur. Un bon exemple d'utilisation d'un modèle séquence à séquence est la traduction neuronale d'une phrase d'une langue d'origine vers une langue d'arrivée.


#5. Comprendre et coder l'attention de Badhanau et de Luong aux modèles Séquence vers Séquence

Ces deux attentions sont utilisées dans les modèles séquence vers séquence. Ce sont les deux principales méthodes qui introduisent le concept d'attention, très largement utilisé dans le domaine du traitement naturel du langage, de la vision artificielle, de la prédiction des séries temporelles ...

Ces deux méthodes sont très importantes ar ce sont sur elles que reposent les modèles de prédictions de séries temporelles à attentions spatio-temporelles les plus avancés de ces dernières années.


#6. Comprendre et coder un modèle multivarié à attention spatio-temporelle : le modèle DA-RNN

Le modèle DA-RNN est un modèle de référence dans le domaine. Très souvent, les modèles issus des recherches scientifiques actuelles comparent leurs résultats à ceux obtenus avec le modèle DA-RNN.

Il est donc essentiel de bien comprendre ce modèle afin de pouvoir approfondir ses connaissances et évoluer vers des modèles plus performants par la suite.

Who Should Attend!

  • Etudiants ou professionnels souhaitant approfondir leurs connaissances dans le domaine de la prédiction des séries temporelles à l'aide du deep learning.

TAKE THIS COURSE

Tags

  • Deep Learning
  • TensorFlow
  • Time Series Analysis
  • Keras

Subscribers

224

Lectures

58

TAKE THIS COURSE



Related Courses