• NEW

Formation Python programmation parallèle et calcul distribué dans le Cloud

Exploiter le parallélisme, le calcul distribué et le Cloud avec Python
Durée 4 jours
Niveau Fondamental
Classe à distance
Possible

Vous pouvez suivre cette formation en direct depuis votre domicile ou votre lieu de travail. Plus d'informations sur notre solution de classe à distance...

Référence PYCD
Éligible CPF Non

Qu’est-ce que le calcul distribué avec Python ?

Le calcul distribué permet de répartir les traitements lourds sur plusieurs cœurs, machines ou nœuds cloud. Python, grâce à ses bibliothèques modernes (NumPy, Dask, Ray, Airflow…), offre des solutions puissantes pour paralléliser et distribuer des workloads intensifs.

Pourquoi suivre une formation Python, calcul distribué ?

Cette formation répond aux besoins croissants d’optimisation des performances dans les environnements de data science et d’ingénierie logicielle. Elle permet d’apprendre à exploiter efficacement les capacités multicœurs, GPU et Cloud pour exécuter des tâches massives, tout en améliorant la scalabilité et la reproductibilité des pipelines de données.

Objectif opérationnel :

Savoir concevoir, optimiser et exécuter des traitements parallèles et distribués en Python, localement et dans le Cloud 

Objectif pédagogiques :

À l'issue de cette formation Python, calcul distribué, vous aurez acquis les connaissances nécessaires pour :

  • Comprendre les fondements du calcul parallèle et distribué en Python.
  • Choisir le modèle adapté (multithreading, multiprocessing, asyncio, vectorisation, GPU).
  • Optimiser des traitements intensifs avec NumPy, Numba et Polars.
  • Construire des pipelines distribués avec Dask et Ray.
  • Orchestrer des workflows parallèles avec Apache Airflow.
  • Déployer et exécuter des workloads dans le Cloud (GCP).

Public :

Cette formation s'adresse aux développeurs Python, ingénieurs data, data scientists et ingénieurs logiciel manipulant des traitements parallèles ou distribués.

Prérequis :

Maîtrise de Python et des bibliothèques scientifiques (NumPy, Pandas, etc.), ainsi que des bases en Docker et notions d'un Cloud public.

J’évalue mes connaissances pour vérifier que je dispose des prérequis nécessaires pour profiter pleinement de cette formation en faisant ce test.

Jour 1

Parallélisme en Python : modèles, limites et bonnes pratiques

Typologie des workloads : 
- CPU-bound
-  I/O-bound 
- GPU-bound
Scalabilité : 
- vertical vs horizontal 
- concepts MIMD / SIMD (vision simplifiée)
Modèle d’exécution Python : 
- GIL et conséquences sur le parallélisme.
Évolution du langage 
- vers un Python no-GIL.
Programmation asynchrone : 
- générateurs
- coroutines 
- asyncio.
Multithreading :
- accès concurrents
- verrous
- contention et limites liées au GIL
Multiprocessing :
- processus indépendants
- pools de processus
- sérialisation
Profilage CPU : 
- cProfile
- line_profiler
- py-spy
Environnements reproductibles : 
- création et gestion via uv

Travaux pratiquesOptimisation d’un traitement d’images : comparaison threading vs multiprocessing.Jour 2

Optimisation locale : vectorisation, JIT et GPU

NumPy avancé : 
- vectorisation, broadcasting
- élimination des boucles Python
Polars : 
moteur multithread Rust
- exécution lazy
- optimisation automatique
Formats colonnes : 
- Parquet et Arrow pour le traitement massif.
Compilation JIT Numba : 
- mode nopython
- boucles parallèles
- limitations
Accélération GPU : 
- kernels Numba CUDA
- blocs/threads

Travaux pratiquesSimulation Monte-Carlo accélérée par Numba.Jour 3

Calcul distribué : Dask, Ray et Airflow

Dask : DataFrame, Bag, Delayed ; scheduler distribué ; tableau de bord.
Dask : gestion des workers, spill-to-disk, shuffle et optimisations.
Ray : tasks, actors, parallélisme dynamique, patterns map/reduce.
Ray : gestion d’état, autoscaling local, debugging distribué.
Airflow : concepts de base — DAG, Operators, Scheduler.
Airflow : orchestration de workflows Python distribués.
Airflow : déclenchement de jobs Dask ou Ray.

Travaux pratiquesCréation d’un DAG Airflow orchestrant un pipeline complet.Jour 4

Cloud : exécution distribuée avec GKE, Cloud Run Jobs et Cloud Batch

Conteneurisation pour workloads calculatoires : Docker multi-stage + uv.
GKE Autopilot : déploiement d’un cluster Dask/Ray sans gestion de noeuds.
Cloud Run Jobs : 
- exécution de conteneurs batch
- montée en charge automatique
Cloud Batch : 
- exécutions massives CPU/GPU
- parallélisation simple sans orchestration manuelle
Google Cloud Storage : 
- stockage Parquet/Arrow
- lecture distribuée
- partitionnement
Monitoring : 
- logs job
- métriques 
- suivi Dask/Ray dans GKE

Travaux pratiquesExécution d’un job sur des données de la blockchain

Chaque module comporte des ateliers concrets représentant environ 50 % de la durée. Les stagiaires expérimentent le parallélisme, la vectorisation, la distribution et le déploiement Cloud via Dask, Ray et GCP.

Date de mise à jour du programme : 18/11/2025

Dates et lieux

1
2
Du 19 au 22 janvier 2026
Lieu
Distanciel
Durée
4 jrs
2490 € HT
Du 19 au 22 janvier 2026
Lieu
Paris
Durée
4 jrs
2490 € HT
Du 02 au 05 mars 2026
Lieu
Distanciel
Durée
4 jrs
2490 € HT
Du 02 au 05 mars 2026
Lieu
Paris
Durée
4 jrs
2490 € HT
Du 13 au 16 avril 2026
Lieu
Distanciel
Durée
4 jrs
2490 € HT
Du 13 au 16 avril 2026
Lieu
Paris
Durée
4 jrs
2490 € HT
Du 15 au 18 juin 2026
Lieu
Distanciel
Durée
4 jrs
2490 € HT
Du 15 au 18 juin 2026
Lieu
Paris
Durée
4 jrs
2490 € HT
Du 07 au 10 septembre 2026
Lieu
Distanciel
Durée
4 jrs
2490 € HT
Du 07 au 10 septembre 2026
Lieu
Paris
Durée
4 jrs
2490 € HT
1
2

Ces formations peuvent aussi vous intéresser :

Utiliser Python pour automatiser des tests d’intrusion, de la reconnaissance à la post-exploitation.

  • Niveau : Intermédiaire
  • Référence : OPYP

Utiliser les bibliothèques Matplotlib, Seaborn et Plotly pour la création de vos graphiques

  • Niveau : Intermédiaire
  • Référence : OPDV

À la découverte de Request, Asyncio, Scrappy et Selenium

  • Niveau : Avancé
  • Référence : OSCR

Snowpark Python, Streamlit, Fast API, Machine Learning

  • Niveau : Intermédiaire
  • Référence : SNOW


Formations Informatique
et Management
en ligne à ce jour

+
Stagiaires dans nos salles
de cours sur
l'année

4,7/5
94% de nos participants
sont satisfaits ou
très satisfaits


Formateurs experts
validés par
PLB

%
Des participants
recommandent
nos formations