Deep Learning | les fondamentaux Mixte : présentiel / à distance

DerniĂšre mise Ă  jour : 14/08/2024

BanniÚre visuelle de présentation de la formation

Pré-inscription

Valider la pré-inscription

Présentation

Dans cette formation au deep learning, vous allez découvrir les réseaux de neurones, les outils essentiels, ainsi que des architectures avancées comme les CNN et RNN. Apprenez à utiliser des modÚles générationnels tels que GAN et VAE, et explorez le deep reinforcement learning pour optimiser le contrÎle d'agents. Des démonstrations pratiques accompagnent chaque section pour une compréhension claire des applications et des limites de ces technologies.

Eligible au financement OPCO

 

  • FNE-Formation
    Cette formation est Ă©ligible au financement FNE, avec une prise en charge pouvant aller jusqu'Ă  70%, et ce, quel que soit votre OPCO de rattachement.
    Pour bénéficier de ce dispositif avantageux, contactez votre OPCO afin de vérifier si votre entreprise répond aux critÚres d'éligibilité.

 

En savoir plus sur les dispositifs de financement

Objectifs

  • Comprendre les concepts de Machine Learning et l'Ă©volution vers le Deep Learning (rĂ©seaux de neurones profonds)
  • Connaitre les briques de base du Deep Learning : rĂ©seaux de neurones simples, convolutifs et rĂ©cursifs
  • ApprĂ©hender les modĂšles plus avancĂ©s : auto-encodeurs, gans, apprentissage par renforcement
  • ApprĂ©hender les bases thĂ©oriques et pratiques d'architecture et de convergence de rĂ©seaux de neurones
  • Comprendre les mĂ©thodologies de mise en place de rĂ©seaux de neurones, les points forts et les limites de ces outils

Programme

Introduction IA, Machine Learning et Deep Learning

  • L'histoire, les concepts de base et les applications de l'intelligence artificielle sont loin des fantasmes du domaine.
  • Intelligence collective:
  • Connaissances agrĂ©gĂ©es partagĂ©es par de nombreux agents virtuels.
  • Algorithme gĂ©nĂ©tique:
  • DĂ©velopper une population d'agents virtuels par sĂ©lection.
  • Apprentissage automatique normal :
  • sens.
  • Type de tĂąche : Apprentissage supervisĂ©, apprentissage non supervisĂ©, apprentissage par renforcement.
  • Type d'action: Classification, rĂ©gression, clustering, estimation de densitĂ©, rĂ©duction de dimensionnalitĂ©.
  • Exemples d'algorithmes d'apprentissage automatique :
  • RĂ©gression linĂ©aire, Bayes naĂŻf, Arbres alĂ©atoires.
  • Apprentissage automatique et apprentissage profond :
  • Pourquoi le ML est-il toujours Ă  la pointe (forĂȘts alĂ©atoires et XGBoost) ?

 

Concepts fondamentaux d'un réseau de neurones

  • Rappel de base en mathĂ©matiques.
  • rĂ©seau neuronal:
  • Architectures, fonctions d'activation et poids d'activation prĂ©cĂ©dents...
  • Formation d'un rĂ©seau de neurones :
  • Fonctions de coĂ»t, rĂ©tropropagation, descente de gradient stochastique...
  • ModĂ©lisation d'un rĂ©seau de neurones :
  • ModĂ©lisation des donnĂ©es d'entrĂ©e et de sortie selon le type de problĂšme. Comprendre les fonctions avec les rĂ©seaux de neurones. Comprendre les distributions avec les rĂ©seaux de neurones. Croissance des donnĂ©es :
  • Comment Ă©quilibrer le jeu de donnĂ©es ?
  • GĂ©nĂ©ralisation des rĂ©sultats des rĂ©seaux de neurones. Initialisation et rĂ©gularisation du rĂ©seau de neurones :
  • RĂ©gularisation L1/L2, normalisation batch.
  • Algorithmes d'optimisation et de convergence.

Démonstration : Fonctions d'ajustement et distributions à l'aide de réseaux de neurones.

 

Outils usuels Machine Learning et Deep Learning

  • Outils de gestion de donnĂ©e : Apache Spark, Apache Hadoop.
  • Outils Machine Learning usuel : Numpy, Scipy, Sci-kit.
  • Frameworks DL haut niveau : PyTorch, Keras, Lasagne.
  • Frameworks DL bas niveau : Theano, Torch, Caffe, Tensorflow. DĂ©monstration
  • Applications et limites des outils prĂ©sentĂ©s.

 

Convolutional Neural Networks (CNN)

  • Principes fondamentaux et applications.
  • Fonctionnement fondamental d'un CNN : couche convolutionnelle, utilisation d'un kernel, padding et stride...
  • Architectures CNN ayant portĂ© l'Ă©tat de l'art en classification d'images : LeNet, VGG Networks, Network in Network...
  • Utilisation d'un modĂšle d'attention.
  • Application Ă  un cas de figure de classification usuel (texte ou image).
  • CNNs pour la gĂ©nĂ©ration : super-rĂ©solution, segmentation pixel Ă  pixel.
  • Principales stratĂ©gies d'augmentation des Feature Maps pour la gĂ©nĂ©ration d'une image.

Etude de cas : Innovations apportées par chaque architecture CNN et leurs applications plus globales (convolution 1x1 ou connexions résiduelles).

 

Recurrent Neural Networks (RNN)

  • PrĂ©sentation des RNNs : principes fondamentaux et applications.
  • CaractĂ©ristiques de base des RNN : activations cachĂ©es, rĂ©tropropagation dans le temps, versions dĂ©pliĂ©es.
  • DĂ©veloppement pour GRU (Gated Recurrent Units) et LSTM (Long Short Term Memory).
  • ProblĂšmes de convergence et gradients de fuite.
  • Types d'architecture classique : prĂ©vision de sĂ©ries temporelles, classification... Architecture codeur-dĂ©codeur RNN. Utilisation de modĂšles en vedette.
  • Applications NLP : encodage de mots/caractĂšres, traduction.
  • Application NLP : prĂ©diction de la prochaine image gĂ©nĂ©rĂ©e d'une sĂ©quence vidĂ©o.

Démonstration : Différents états et évolutions apportées par les architectures Gated Recurrent Units et Long Short Term Memory.

 

 

ModÚles générationnels : VAE et GAN

  • PrĂ©sentation des modĂšles gĂ©nĂ©rationnels Variational AutoEncoder (VAE) et Generative Adversarial Networks (GAN).
  • Auto-encoder : rĂ©duction de dimensionnalitĂ© et gĂ©nĂ©ration limitĂ©e.
  • Variational AutoEncoder : modĂšle gĂ©nĂ©rationnel et approximation de la distribution d'une donnĂ©e.
  • DĂ©finition et utilisation de l'espace latent. Reparameterization trick.
  • Fondamentaux du Generative Adversarial Networks. Convergence d'un GAN et difficultĂ©s rencontrĂ©es.
  • Convergence amĂ©liorĂ©e : Wasserstein GAN, BeGAN. Earth Moving Distance.
  • Applications de gĂ©nĂ©ration d'images ou de photographies, gĂ©nĂ©ration de texte, super rĂ©solution.

Démonstration : Applications des modÚles générationnels et utilisation de l'espace latent.

Deep Reinforcement Learning

  • Reinforcement Learning.
  • Utilisation d'un rĂ©seau de neurones pour apprĂ©hender la fonction d'Ă©tat.
  • Deep Q Learning : experience replay et application au contrĂŽle d'un jeu vidĂ©o.
  • Optimisations de la politique d'apprentissage. On-policy et off- policy. Actor critic architecture. A3C.
  • Applications : contrĂŽle d'un jeu vidĂ©o simple ou d'un systĂšme numĂ©rique.

Démonstration : ContrÎle d'un agent dans un environnement défini par un état et des actions possibles.

Prérequis

  • Avoir des bases en programmation et une bonne maĂźtrise des outils informatiques et statistiques,
  • Connaitre les bases du Machine Learning est recommandĂ©.

Modalités pédagogiques

Docaposte Institute propose plusieurs dispositifs pédagogiques adaptés aux apprenants :

  • Formation en prĂ©sentiel
    • En groupe (inter-entreprises ou intra-entreprise)
    • En individuel (monitorat)
    • En journĂ©e ou en cours du soir (sur demande spĂ©cifique)
  • Formation en distanciel
    • Distanciel synchrone
    • Distanciel asynchrone

Moyens et supports pédagogiques

  • Apports des connaissances communes.
  • Mises en situation sur le thĂšme de la formation et des cas concrets.
  • MĂ©thodologie d'apprentissage attractive, interactive et participative.
  • Equilibre thĂ©orie / pratique : 60 % / 40 %.
  • Supports de cours fournis au format papier et/ou numĂ©rique.
  • Ressources documentaires en ligne et rĂ©fĂ©rences mises Ă  disposition par le formateur.
  • Pour les formations en prĂ©sentiel dans les locaux mis Ă  disposition, les apprenants sont accueillis dans une salle de cours Ă©quipĂ©e d'un rĂ©seau Wi-Fi, d'un tableau blanc ou paperboard. Un ordinateur avec les logiciels appropriĂ©s est mis Ă  disposition (le cas Ă©chĂ©ant).

Modalités d'évaluation et de suivi

En amont de la formation

  • Recueil des besoins des apprenants afin de disposer des informations essentielles au bon dĂ©roulĂ© de la formation (profil, niveau, attentes particuliĂšres...).
  • Auto-positionnement des apprenants afin de mesurer le niveau de dĂ©part.

 

Tout au long de la formation

  • Évaluation continue des acquis avec des questions orales, des exercices, des QCM, des cas pratiques ou mises en situation...

 

A la fin de la formation

  • Auto-positionnement des apprenants afin de mesurer l'acquisition des compĂ©tences.
  • Evaluation par le formateur des compĂ©tences acquises par les apprenants.
  • Questionnaire de satisfaction Ă  chaud afin de recueillir la satisfaction des apprenants Ă  l'issue de la formation.
  • Questionnaire de satisfaction Ă  froid afin d'Ă©valuer les apports ancrĂ©s de la formation et leurs mises en application au quotidien.

Accessibilité

Nos formations peuvent ĂȘtre adaptĂ©es Ă  certaines conditions de handicap. Nous contacter pour toute information et demande spĂ©cifique.

Accessibilité à nos formations

Si vous ĂȘtes en situation de handicap, contactez-nous avant le dĂ©but de votre formation pour que nous puissions vous orienter efficacement et vous accueillir dans les meilleures conditions.

Inscription possible jusqu'à 10 jours avant le démarrage de la formation

Session sélectionnée

    Prochaines Sessions

    • DĂ©solĂ©, cette formation n'est pas programmĂ©e pour le moment.

      Si vous ĂȘtes responsable formation, vous pouvez faire une requĂȘte pour l'organiser en INTRA dans votre entreprise.

    Dans la mĂȘme catĂ©gorie

    Catalogue de formation propulsé par Dendreo,
    Plateforme dédiée pour les OF