• NEW

Formation Kestra : Orchestration et Gestion de Workflows de Données

Maîtrisez Kestra, la plateforme open source d’orchestration pour automatiser vos pipelines de données de bout en bout
Durée 3 jours
Niveau Intermédiaire
Classe à distance
Possible

Vous pouvez suivre cette formation en direct depuis votre domicile ou votre lieu de travail. Plus d'informations sur notre solution de classe à distance...

Référence KEOG
Éligible CPF Non

Qu’est-ce que Kestra ?

Kestra est une plateforme open source d’orchestration de workflows conçue pour automatiser les traitements de données et les processus métiers à grande échelle. Basée sur une approche déclarative en YAML, Kestra permet de gérer des pipelines complexes, d’assurer leur traçabilité et de les exécuter de manière distribuée et fiable. Elle s’intègre nativement à l’écosystème moderne de la Data (Airbyte, DBT, Snowflake, Kafka…) et s’impose comme une alternative robuste aux orchestrateurs traditionnels comme Airflow ou Prefect.

Pourquoi suivre une formation Kestra ?

Dans un contexte où la fiabilité, la supervision et la scalabilité des flux de données sont essentielles, Kestra offre une solution complète et flexible pour automatiser les pipelines ETL, les processus analytiques et les intégrations entre systèmes. Suivre cette formation Kestra vous permettra de concevoir, déployer et maintenir des workflows data de production, tout en optimisant la résilience, la performance et l’observabilité de vos traitements. C’est une compétence clé pour tout professionnel de la donnée souhaitant maîtriser les architectures Data modernes.

Objectif opérationnel :

Savoir concevoir, orchestrer et superviser des workflows de données complexes avec Kestra dans un environnement de production.

Objectif pédagogiques :

À l'issue de cette formation Kestra : Orchestration et Gestion de Workflows de Données, vous aurez acquis les connaissances nécessaires pour :

  • Comprendre les concepts fondamentaux de l’orchestration de workflows.
  • Installer et configurer Kestra dans un environnement local et distribué.
  • Concevoir et exécuter des workflows en YAML.
  • Gérer les dépendances, les erreurs et la supervision des pipelines.
  • Intégrer Kestra dans des environnements Data (Airbyte, DBT, Snowflake…).
  • Déployer Kestra dans une infrastructure de production (Docker, Kubernetes).
  • Développer et maintenir des workflows robustes et audités.

Public :

Cette formation s’adresse aux data engineers, DevOps, développeurs back-end, architectes data et responsables d’intégration souhaitant automatiser et orchestrer des pipelines de données.

Prérequis :

Avoir des notions en scripting (Python, Bash ou équivalent) et en manipulation de données. Des bases en conteneurisation (Docker) et en environnement Linux sont recommandées pour tirer pleinement parti des travaux pratiques.

J’évalue mes connaissances pour vérifier que je dispose des prérequis nécessaires pour profiter pleinement de cette formation en faisant ce test.

Jour 1

Introduction à l’orchestration de workflows

Rôle et enjeux de l’orchestration dans les pipelines de données
Présentation de Kestra et de son positionnement dans l’écosystème Data
Architecture : exécutants, triggers, scheduler, namespace
Installation et configuration via Docker
Travaux pratiquesObjectif :Installer Kestra et exécuter un premier workflow. 
Description :Déploiement local sous Docker, création d’un simple workflow d’exécution de script. Comment vérifier les logs et les métriques d’un run ?

Conception de workflows YAML

Structure d’un fichier YAML Kestra
Définition de tâches, variables et dépendances
Gestion des entrées/sorties
Utilisation des namespaces et paramètres
Travaux pratiquesObjectif :Créer un workflow multi-étapes avec paramètres. 
Description :Construction d’un pipeline de traitement CSV avec logs et gestion des erreurs. Quelle syntaxe adopter pour rendre le workflow réutilisable ?
Jour 2

Gestion des exécutions et supervision

Logs, métriques et exécutions dans l’interface Kestra
Gestion des erreurs et relances automatiques
Mise en place d’alertes et notifications (Slack, email, webhook)
Bonnes pratiques de debugging
Travaux pratiquesObjectif :Analyser et corriger un workflow en erreur. 
Description :Simulation d’échecs d’exécution et configuration d’alertes. Quelle stratégie adopter pour relancer automatiquement un job échoué ?

Intégration dans un environnement Data

Interaction avec des connecteurs externes (Airbyte, DBT, Snowflake, Kafka)
Définition de triggers (temps, événement, API)
Intégration REST et API Kestra
Gestion des secrets et variables d’environnement
Travaux pratiquesObjectif :Créer un pipeline d’intégration complète de données. 
Description :Orchestration d’un flux ETL entre Airbyte et DBT, suivi dans Kestra. Comment chaîner plusieurs workflows et suivre leur exécution ?
Jour 3

Déploiement en production

Architecture distribuée et scaling horizontal
Déploiement sur Kubernetes
Gestion des exécutants et files de messages (Kafka, RabbitMQ)
Sécurité, rôles et audit
Travaux pratiquesObjectif :Déployer Kestra sur un cluster Kubernetes. 
Description :Mise en place d’une architecture distribuée et observation du scaling. Comment assurer la haute disponibilité et la tolérance aux pannes ?

Extension et personnalisation

Développement de plugins Kestra
Utilisation de l’API Kestra pour automatiser la configuration
Sauvegarde et mise à jour des workflows
Bonnes pratiques pour la maintenance et la documentation
Travaux pratiquesObjectif :Étendre les capacités de Kestra par un plugin personnalisé. 
Description :Création d’une tâche personnalisée en Java ou Python. Quelle est la meilleure approche pour industrialiser des workflows réutilisables ?

Environ 60 % du temps de formation est dédié à la pratique. Les stagiaires construisent et exécutent des pipelines complets dans un environnement Kestra local et distribué, avec supervision, debugging et intégrations réelles.

Date de mise à jour du programme : 28/11/2025

Dates et lieux

Du 09 au 11 février 2026
Lieu
Distanciel
Durée
3 jrs
1990 € HT
Du 09 au 11 février 2026
Lieu
Paris
Durée
3 jrs
1990 € HT
Du 13 au 15 avril 2026
Lieu
Distanciel
Durée
3 jrs
1990 € HT
Du 13 au 15 avril 2026
Lieu
Paris
Durée
3 jrs
1990 € HT
Du 29 juin au 01 juillet 2026
Lieu
Distanciel
Durée
3 jrs
1990 € HT
Du 29 juin au 01 juillet 2026
Lieu
Paris
Durée
3 jrs
1990 € HT
Du 07 au 09 septembre 2026
Lieu
Distanciel
Durée
3 jrs
1990 € HT
Du 07 au 09 septembre 2026
Lieu
Paris
Durée
3 jrs
1990 € HT
Du 16 au 18 novembre 2026
Lieu
Distanciel
Durée
3 jrs
1990 € HT
Du 16 au 18 novembre 2026
Lieu
Paris
Durée
3 jrs
1990 € HT

Ces formations peuvent aussi vous intéresser :

Apprenez à connecter, synchroniser et automatiser vos flux de données entre différentes sources et destinations cloud avec Fivetran

  • Niveau : Fondamental
  • Référence : FAID

  • Niveau : Intermédiaire
  • Référence : AIRF

Splunk

- 4 jrs

  • Niveau : Intermédiaire
  • Référence : SPLU

  • Niveau : Intermédiaire
  • Certification : Splunk Core Certified Advanced Power User
  • Cours officiel : SPLUNK
  • Référence : SPPU


Formations Informatique
et Management
en ligne à ce jour

+
Stagiaires dans nos salles
de cours sur
l'année

4,7/5
94% de nos participants
sont satisfaits ou
très satisfaits


Formateurs experts
validés par
PLB

%
Des participants
recommandent
nos formations