Splunk
- Durée
- Durée :4 jours
- Niveau
- Niveau :Intermédiaire
- Certification
- Certification :Non
Qu'est-ce qu'Apache Airflow ?
Apache Airflow est un outil open-source de gestion des flux de travail, permettant la création, la planification et la surveillance des workflows programmatiques. Utilisé principalement dans le domaine de l'ingénierie des données, il offre une solution robuste pour orchestrer des pipelines de données complexes de manière efficiente et réplicable.
Pourquoi suivre une formation Apache Airflow ?
Dans un environnement où les données sont essentielles à la prise de décision, maîtriser Apache Airflow devient crucial pour automatiser et gérer des workflows complexes. Cette formation permet de comprendre et d'implémenter des pipelines de données dynamiques et modulaires, assurant la fiabilité et la scalabilité des processus. En acquérant ces compétences, les professionnels augmentent leur valeur ajoutée et leur capacité à gérer des projets de data engineering avancés.
Objectif opérationnel :
Savoir utiliser Apache Airflow pour créer, gérer et surveiller des workflows de données automatisés.
Objectifs pédagogiques :
À l'issue de cette formation Apache Airflow, vous aurez acquis les connaissances nécessaires pour :
Public cible :
Ce cours s'adresse aux développeurs, DevOps, Administrateurs système ou toute personne souhaitant automatiser des workflows.
Prérequis :
Pour suivre cette formation, il est nécessaire d’avoir une expérience de base en programmation Python et de maîtriser les concepts de workflows et pipelines de données.
J'évalue mes connaissances pour vérifier que je dispose des prérequis nécessaires pour profiter pleinement de cette formation en faisant le test de prérequis.
Date de mise à jour du programme : 18/02/2026
Splunk
Splunk Power User Fast Start
Snowflake - Prise en main de Snowflake
Snowflake - Avancé