• FNE
  • FSE

Formation KEDA : Kubernetes Event-Driven Autoscaling

Durée 3 jours
Niveau Fondamental
Classe à distance
Possible

Vous pouvez suivre cette formation en direct depuis votre domicile ou votre lieu de travail. Plus d'informations sur notre solution de classe à distance...

Référence KEDA
Éligible CPF Non

Qu’est-ce que KEDA ? 
KEDA (Kubernetes Event-Driven Autoscaling) est un composant qui permet d’ajuster dynamiquement le nombre de répliques d’une application Kubernetes en fonction des événements. Il est utilisé pour automatiser le scaling d'applications en fonction de divers types de workloads, que ce soit des événements basés sur la file d'attente de messages, des tâches de traitement par lot, ou d'autres déclencheurs de charge.

Pourquoi suivre une formation KEDA ? 
Avec l'augmentation de la complexité des systèmes modernes, la gestion efficace des ressources est cruciale. Une formation sur KEDA permet de maîtriser les techniques d'autoscaling dynamique dans un environnement Kubernetes. Elle offre une compréhension approfondie de la gestion des workloads événementiels, améliorant ainsi la performance des applications tout en optimisant l'utilisation des ressources. En outre, cette compétence est précieuse pour ceux qui cherchent à maximiser l'efficacité de leurs déploiements Kubernetes et à réduire les coûts opérationnels.

Objectif opérationnel :

Savoir configurer et gérer l'autoscaling des applications Kubernetes en fonction des événements.

Objectifs pédagogiques :

À l'issue de cette formation KEDA Kubernetes, vous aurez acquis les connaissances nécessaires pour :

  • Comprendre les concepts fondamentaux de Kubernetes et de l'autoscaling
  • Apprendre à configurer et utiliser KEDA pour différents types de workloads
  • Savoir intégrer KEDA avec des systèmes de messagerie, des files d'attente et d'autres déclencheurs
  • Acquérir les compétences pour optimiser la gestion des ressources dans Kubernetes
  • Appliquer les concepts appris à travers des exercices pratiques sur un cluster Kubernetes

Public :

Ce cours s'adresse aux développeurs, administrateurs systèmes, DevOps et plus globalement à toute personne impliquée dans la gestion des infrastructures cloud et Kubernetes.

Prérequis :

Pour suivre cette formation, il est recommandé d’avoir une bonne maîtrise des concepts de base de Kubernetes, notamment la gestion des Pods, des services, et des déploiements. Vous pouvez les acquérir en suivant la formation Kubernetes : Déployer des conteneurs applicatifs sur Kubernetes (DKDC).

Il est également recommandé d'avoir une expérience pratique avec la ligne de commande kubectl et une compréhension de base des systèmes de messagerie et des files d'attente.

Jour 1

Introduction à Kubernetes et à l'autoscaling

Présentation des concepts clés de Kubernetes et du scaling. 
Pourquoi l'autoscaling est-il important dans un environnement cloud ? 
Introduction à l'autoscaling horizontal des pods (HPA) dans Kubernetes. 
Limites de l'autoscaling standard et introduction à KEDA.

Architecture et principes de fonctionnement de KEDA

Définition et architecture de KEDA : Comment KEDA s'intègre-t-il dans un cluster Kubernetes ? 
Comprendre les ScaledObjects et les ScaledJobs. 
Les différents types de déclencheurs pris en charge par KEDA. 
Installation et configuration de KEDA dans un cluster Kubernetes.
Travaux pratiquesObjectif : Installation de KEDA et déploiement d'un premier ScaledObject. 
Description : Les stagiaires installeront KEDA sur un cluster Kubernetes et configureront un ScaledObject simple pour voir comment KEDA ajuste automatiquement le nombre de pods en fonction des événements.
Jour 2

Configuration des déclencheurs avec KEDA

Présentation des types de déclencheurs : files d'attente de messages, bases de données, etc. 
Comment configurer un déclencheur pour une file d'attente RabbitMQ ? 
Configuration de KEDA pour des workloads basés sur des tâches de traitement par lot. 
Quelles sont les meilleures pratiques pour choisir et configurer des déclencheurs ?

Optimisation de l'autoscaling avec KEDA

Comment définir des règles de scaling efficaces ? 
Surveiller et ajuster l'efficacité du scaling avec Prometheus et Grafana. 
Utilisation des seuils de scaling et des valeurs de cooldown. 
Cas d'utilisation avancés de KEDA pour des architectures complexes.
Travaux pratiquesObjectif : Configuration de plusieurs déclencheurs et optimisation du scaling. 
Description : Les stagiaires configureront différents types de déclencheurs avec KEDA et analyseront le comportement du cluster sous différentes charges, en utilisant des outils de surveillance pour optimiser les performances.
Jour 3

Intégration de KEDA dans des environnements de production

Stratégies pour intégrer KEDA dans un workflow CI/CD. 
Gestion des mises à jour et de la maintenance de KEDA en production. 
Comment assurer la haute disponibilité et la résilience des applications autoscalées avec KEDA ? 
Étude de cas : Implémentation de KEDA dans un projet réel.

Déploiement avancé et gestion des ressources

Comment gérer les quotas de ressources avec KEDA ? 
Déploiement multi-tenant et gestion des priorités de scaling. 
Réduction des coûts grâce à une gestion optimale des ressources. 
Quelle est la prochaine étape pour améliorer l'efficacité de votre cluster Kubernetes avec KEDA ?
Travaux pratiquesObjectif : Déploiement et gestion de KEDA dans un environnement de production simulé. 
Description : Les stagiaires déploieront KEDA dans un environnement de production simulé, intégrant des processus CI/CD et configurant des stratégies de scaling pour garantir une haute disponibilité et une utilisation efficace des ressources.
Date de mise à jour du programme : 15/04/2025

Dates et lieux

Du 16 au 18 juin 2025
Lieu
Distanciel
Durée
3 jrs
1990 € HT
Du 16 au 18 juin 2025
Lieu
Paris
Durée
3 jrs
1990 € HT
Du 24 au 26 novembre 2025
Lieu
Distanciel
Durée
3 jrs
1990 € HT
Du 24 au 26 novembre 2025
Lieu
Paris
Durée
3 jrs
1990 € HT

Ces formations peuvent aussi vous intéresser :

  • Niveau : Fondamental
  • Référence : EAOC

Applications Cloud Native, Docker, Kubernetes, PaaS

  • Niveau : Fondamental
  • Référence : CONT

  • Niveau : Intermédiaire
  • Référence : DKDC

  • Niveau : Intermédiaire
  • Référence : KUAA


Formations Informatique
et Management
en ligne à ce jour

+
Stagiaires dans nos salles
de cours sur
l'année

%
De participants satisfaits
ou très satisfaits de nos
formations


Formateurs experts
validés par
PLB