Formation Deep Learning : les fondamentaux Comprendre les réseaux de neurones pour le deep learning

4.4 sur 5 étoiles

5 étoiles
42%
4 étoiles
57%
3 étoiles
0%
2 étoiles
0%
1 étoile
0%
Voir les 7 avis
(7 avis)
Durée 3 jours
Niveau Intermédiaire
Classe à distance
Possible

Vous pouvez suivre cette formation en direct depuis votre domicile ou votre lieu de travail. Plus d'informations sur notre solution de classe à distance...

Référence ADLP
Éligible CPF Non

Le Deep Learning est une technologie d’apprentissage automatique qui démocratise l’intelligence artificielle pour les applications informatiques. On peut facilement maintenant reconnaitre ses amis sur des photos, une voix, un objet, adapter une réponse à son interlocuteur, traduire à la volée, etc. Cette technologie n’est pas nouvelle mais décolle aujourd’hui grâce au gigantesque volume de données disponible.

Cette formation Deep Learning n’est pas centrée sur l’IA en général mais privilégie les spécificités du Deep Learning et notamment les concepts et le fonctionnement technique des réseaux de neurones sur lesquels repose cette technologie. Nous replaçons aussi le Deep Learning dans son contexte par rapport au machine learning et nous en montrons également les limites.

Objectif opérationnel : 

Disposer d'une compréhension détaillée des principales architectures de réseaux de neurones au travers de travaux pratiques.

Objectifs pédagogiques : 

Concrètement, à l'issue de cette formation Deep Learning, vous aurez acquis les connaissances et les compétences nécessaires pour :

  • Maitriser les concepts fondamentaux du Deep learning et leur origine
  • Identifier les principaux types de réseaux de neurones (simples, convolutifs, récursifs, etc.)
  • Savoir quand les utiliser ?
  • Appréhender les modèles de Deep Learning plus avancés (auto-encodeurs, gans, apprentissage par renforcement, …)
  • Appréhender les bases théoriques et pratiques d'architecture et de convergence de réseaux de neurones
  • Comprendre en quoi consiste la mise en œuvre concrète des réseaux de neurones
  • Utiliser un framework de référence : Keras de TensorFlow

Public :

Ce cours Deep Learning cible principalement les Data Scientists, Machine Learning Engineers ou les développeurs ayant une appétence et une première expérience avec le Machine Learning.

Prérequis :

Pour suivre cette formation Machine Learning, il est nécessaire d’avoir les bases en langage de programmation, d’être à l’aise avec les statistiques et de posséder des bases en Machine learning. Même si nous expliquons en début de formation en quoi consiste la transition du Machine Learning vers le Deep learning il n’est pas prévu de revenir en détail sur le Machine Learning.

Jour 1

Introduction au Deep Learning

Relation entre Machine Learning et Deep Learning
Champs d’application et cas d’utilisation
Principes fondamentaux du Machine Learning
Principaux outils et bibliothèques pour le Deep Learning : TensorFlow, Keras, Caffe, etc
Travaux PratiquesExercice pratique faisant intervenir tous les prérequis, introduction aux notebooks Jupyter

Découverte de TensorFlow

Installation de TensorFlow et son éco système, présentation des tensors (tableaux multidimensionnels), des variables et placeholders, présentation des graphes et sessions TensorFlow
Exemples avec les APIs TensorFlow : Estimators, Layers, Datasets…
Opérations sur des ensembles de données telles que la régression et la classification. Visualiser des graphes et courbes d’apprentissage avec TensorBoard
Travaux PratiquesCréation d’un premier modèle de régression en TensorFlow. Représentation avec TensorBoard pour analyse

Les réseaux neuronaux artificiels ou ANN (Deep Learning)

Présentation du fonctionnement du perceptron à une couche et du perceptron multicouche, configuration et paramétrage d’un réseau de neurones
Approche logicielle du développement d’un réseau de neurones : activation, désactivation
Conception d’un réseau de neurones en fonction du problème à résoudre
Travaux PratiquesConstruction d’un réseau de neurones simple à 2 entrées (perceptron) pour comprendre la logique de base du fonctionnement d’un réseau de neurones.
Reconnaissance de caractères manuscrit (classification de chiffres) à l’aide d’un réseau de neurones multi-couches.

Entraînement d’un réseau de neurones

Présentation des méthode d’apprentissage : fonction de coût, descente de gradient et rétro-propagation
Importance de la métrologie : choix des paramètres
Présentation de techniques de Data Augmentation et de l’écueil du sur apprentissage par régularisation
Travaux Pratiques Compléments du TP de reconnaissance des caractères.
Comparaison des résultats avec différents paramètres d’entrainements : taille de l’ensemble d’entrainement, choix des fonction d’activation, nombre d’itération, séparation taille ensemble d’entrainement / de test
Jour 2

Réseaux de neurones convolutifs ou CNN

Présentation des principes de fonctionnement et définition de filtres convolutifs
Développement d’une couche de convolution, d’une couche de pooling
Approche logicielle du développement d’un réseau de neurones convolutifs
Travaux PratiquesUtilisation d’un réseau de neurones CNN pour la reconnaissance de l’écriture manuscrite

Réseaux de neurones récurrents ou RNN

Présentation des principes de fonctionnement et importance de la disparition du gradient
Approche logicielle du développement d’un réseau de neurones récurrents
Présentation d’une Cellule Long Short-Term Memory (LSTM) et de sa version simplifiée la cellule GRU
Applications des réseaux récurrents aux séries temporelles
Principes fondamentaux du NLP ou Natural Language Processing
Travaux Pratiques Utilisation d’un réseau de neurones RNN pour le traitement automatique du langage naturel. Mise en place d'un moteur d'analyse des sentiments.

Analyse avancée d’images par les réseaux de neurones convolutifs

Reconnaissance et détection d’objets
Découverte des modèles de l’état de l’art
Principes de fonctionnement, limites et mise en oeuvre
Aller plus loin et analyser des flux vidéos, découvertes d’outils spécialisés et pistes de réflexion
L’exemple de l’outil YOLO
Travaux PratiquesMise en oeuvre d’un algorithme qui utilise les CNN (Convolutional neural network) pour la Reconnaissance d’image en temps réel (voiture autonome)Jour 3

Introduction aux auto-encodeurs

Principes fondamentaux des auto-encodeurs
Réduction de dimension grâce aux auto-encodeurs
Introduction et découverte des réseaux de génération d’images : Variational Auto-Encoders (VAE) 
Présentation de l’API avancée de Keras (functional API)  autoencoder
Travaux PratiquesConstruire un auto-encodeur pour la réduction de dimension
Construire un auto-encodeur pour le filtrage et le nettoyage d’images

Apprentissage par renforcement (Deep Learning)

Définir le principe de notation et d’optimisation par objectif
Présentation de la toolkit Gym pour la programmation par renforcement
Principe de la prise de décision par critère de Markov
Principes fondamentaux de l’apprentissage par différence (temporelle, etc)
Travaux PratiquesApprendre comme un humain avec une récompense. Illustration avec AlphaGo (IA / jeu de Go) et AlphaStar (IA / jeu vidéo complexe). 
Mise en place d’un agent simple sur un jeu Atari (apprentissage par renforcement qui apprend dans un environnement inconnu (dont les règles du jeu), il reçoit des récompenses en fonction de ses choix bons ou mauvais à chaque changement d’état).

Mise en perspective, comparaison et ré-utilisation des réseaux de l’état de l’art

Découverte des réseaux les plus performants
Comprendre ce qui les distingue les uns des autres (points forts et limites de chacun)
Ré-utiliser, tout ou partie, de réseaux pré-entrainés sur des millions d’images
Principes et fonctionnement du transfert learning
Travaux PratiquesUtiliser sur ses données un réseau “sur étagère” pré-entrainé - Ré-entrainer sur ses données les couches de décision d’un réseau de l’état de l’art

Performance et mise en production

Exécution sur CPUs, GPUs à l’aide des notebook Jupyter 
Librairies de sérialisation et introduction à TensorServing pour la mise en production
Travaux PratiquesDéploiement de réseaux sur TensorServing
Date de mise à jour du programme : 11/09/2023

Dates et lieux

1
2
Du 13 au 15 mai 2024
Session bientôt complète
Lieu
Distanciel
Durée
3 jrs
2090 € HT
Du 13 au 15 mai 2024
Session bientôt complète
Lieu
Paris
Durée
3 jrs
2090 € HT
Du 03 au 05 juin 2024
Lieu
Distanciel
Durée
3 jrs
2090 € HT
Du 03 au 05 juin 2024
Lieu
Paris
Durée
3 jrs
2090 € HT
Du 01 au 03 juillet 2024
Lieu
Distanciel
Durée
3 jrs
2090 € HT
Du 01 au 03 juillet 2024
Lieu
Paris
Durée
3 jrs
2090 € HT
Du 05 au 07 août 2024
Lieu
Distanciel
Durée
3 jrs
2090 € HT
Du 05 au 07 août 2024
Lieu
Paris
Durée
3 jrs
2090 € HT
Du 02 au 04 septembre 2024
Lieu
Distanciel
Durée
3 jrs
2090 € HT
Du 02 au 04 septembre 2024
Lieu
Paris
Durée
3 jrs
2090 € HT
1
2

Logo partenaire action collective de l'OPCO Atlas Votre formation Deep Learning prise en charge jusqu'à 100% des coûts pédagogiques ! *

Depuis 2011, PLB Consultant est partenaire des Actions Collectives Atlas pour vous proposer les meilleures formations informatique et développer vos compétences dans le Numérique :

- En présentiel dans l’une de nos salles en Régions    
- À distance depuis votre bureau    
- Sessions intra-entreprise dans toute la France.

* jusqu'à 100% des coûts pédagogiques selon votre branche d'activité dans la limite des fonds mutualisés dédiés aux actions collectives et en application des critères de prise en charge en vigueur (cf conditions détaillées sur le site d'Atlas)

Avis des participants à la formation Deep Learning : les fondamentaux

Note moyenne de 4.4/5(7)

Les avis figurant ci-dessous sont issus des fiches d’évaluation que remplissent les participants à la fin de la formation. Ils sont ensuite publiés automatiquement si les personnes ont explicitement accepté que nous les diffusions.

RG
5/5

Mon avis sur le contenu du stage :

"Savoir coder et maitriser les bases du Machine Learning étaient des prérequis à la formation, mais non maitrisés par les autres participants, nous avons passé 1 journée à revoir ces notions, un peu dommage..."

Ce que j'ai le plus apprécié :

"Bonne répartition des temps de cours / TP + bonne communication entre le prof et les élèves"

RN
5/5

Mon avis sur le formateur :

"Yaroub est un très bon formateur qui sait s'adapter aux différents profils présents à la formation. Disponible, pédagogue, il a su faire vivre le cours et le rendre très intéressant durant ces 3 jours."

Ce que j'ai le moins apprécié :

"Machine virtuelle un peu compliquée à faire fonctionner (installation et chargement des fichiers)"

KI
4/5

Mon avis sur le contenu du stage :

"RAS"

Mon avis sur le formateur :

"RAS"

Ce que j'ai le plus apprécié :

"Très disponible et pédagogue"

Ce que j'ai le moins apprécié :

"Moins de cas pratiques liés à notre entreprise (télécom)"

SJ
4/5

Mon avis sur le contenu du stage :

" "

Ce que j'ai le moins apprécié :

"Je recommanderais de - compléter le support avec plus d'explications textuelles. - Corriger les problèmes sur les environnements de VM (Le jupyther pète des warnings toutes les minutes) - Les TDs pourraient avoir un code plus commenté et ne pas avoir d'erreur de code."

SERET Nathalie
5/5

Mon avis sur le contenu du stage :

"formation riche et dense"

Ce que j'ai le plus apprécié :

"alternance théorie et pratique"

Ce que j'ai le moins apprécié :

"une 4ème journée aurait été profitable pour approfondir vu la densité du programme"

LR
4/5

Ce que j'ai le plus apprécié :

"intervention"

CAS
4/5


Formations Informatique
et Management
en ligne à ce jour

+
Stagiaires dans nos salles
de cours sur
l'année

%
De participants satisfaits
ou très satisfaits de nos
formations


Formateurs experts
validés par
PLB