• FNE
  • FSE

Formation MLOps pour les modèles d’IA générative

De la compréhension des modèles d’IA générative à leur déploiement industriel grâce aux bonnes pratiques MLOps
Durée 3 jours
Niveau Avancé
Classe à distance
Possible

Vous pouvez suivre cette formation en direct depuis votre domicile ou votre lieu de travail. Plus d'informations sur notre solution de classe à distance...

Référence REML
Éligible CPF Non

Qu’est-ce que le MLOps appliqué aux modèles d’IA générative ?

Le MLOps (Machine Learning Operations) vise à industrialiser le cycle de vie des modèles d’intelligence artificielle. Appliqué aux LLM (Large Language Models) tels que GPT, Claude, Llama ou Mistral, il permet de passer du prototype à la production avec fiabilité et traçabilité. De la quantization au function calling, de l’évaluation à la supervision, cette approche optimise la collaboration entre data scientists, développeurs et ingénieurs système.

Pourquoi suivre une formation MLOps pour les modèles d’IA générative ?

Cette formation vous guide à travers tout le cycle de vie d’un modèle d’IA générative : compréhension des fondamentaux, mise en place d’environnements modernes (Docker, uv, VSCode), gestion des expériences (MLflow, MinIO), jusqu’au déploiement automatisé (FastAPI, CI/CD). Elle allie rigueur technique et dimension pratique pour permettre aux équipes de passer à l’échelle dans leurs projets IA tout en maintenant qualité, performance et reproductibilité.

Objectif opérationnel :

Savoir industrialiser, déployer et superviser un modèle d’IA générative à l’aide des pratiques et outils MLOps modernes.

Objectifs pédagogiques :

À l'issue de cette formation MLOps pour les modèles d’IA générative, vous aurez acquis les connaissances et compétences nécessaires pour :

  • Comprendre le rôle du MLOps dans le cycle de vie des modèles d’IA générative.
  • Identifier les différents types de modèles LLM et leurs critères de choix.
  • Évaluer et comparer les performances des modèles via des benchmarks.
  • Mettre en place un environnement reproductible pour le développement IA.
  • Intégrer un pipeline complet d’expérimentation, de déploiement et de monitoring.
  • Déployer des modèles avec Docker, FastAPI, MLflow et superviser leur comportement en production.

Public :

Cette formation s’adresse aux développeurs IA, ingénieurs MLOps, data scientists et architectes techniques souhaitant structurer et industrialiser leurs déploiements de modèles d’IA générative.

Prérequis :

Avoir de bonnes bases en Python et en apprentissage automatique. Des connaissances de base sur Docker et Git sont recommandées pour tirer pleinement profit des travaux pratiques.

J’évalue mes connaissances pour vérifier que je dispose des prérequis nécessaires pour profiter pleinement de cette formation en faisant ce test.

Jour 1

Comprendre les LLM et leurs composants

Définitions essentielles : IA, LLM, GPT, Token, GPU, TUP, LPU
Cycle de vie d’un modèle : construction, exposition, utilisation
Types de modèles : open source vs closed source, censored vs uncensored
Taille, quantization et formats (GGUF, ONNX)
Function calling et critères de spécialisation
Travaux pratiquesObjectif :Identifier et manipuler différents modèles en local. 
Description :Installation et test de modèles via LM Studio. Comparaison des performances selon la taille et les réglages.

Évaluation et comparaison des modèles

Métriques, leaderboard et tests en ligne
Méthodes de benchmarking et d’analyse de cohérence
Utilisation d’arena et de comparateurs web
Travaux pratiquesObjectif :Évaluer et classer différents modèles selon des critères objectifs. 
Description :Activité comparative via leaderboard, puis via arena et web TPU. Quelle métrique privilégier selon le contexte ?

Introduction au Prompt Engineering dans un contexte MLOps

System vs User prompt
Stratégies : n-shot, CoT, ToT
Température, top K, context window
Intégration du RAG et du function calling
Travaux pratiquesObjectif :Observer l’effet des réglages sur les résultats. 
Description :Tests de stratégies de prompt et fonction RAG via Anything LLM.
Jour 2

MLOps et gestion d’environnements

Notions d’automatisation et de reproductibilité
venv, Conda, Mamba, Poetry, uv
Conteneurisation avec Docker & Kubernetes
Installation pour Python et Java
Travaux pratiquesObjectif :Construire un environnement MLOps complet. 
Description :Installation d’un environnement moderne (VSCode, uv, Docker, JDK 21).

Cycle de vie d’un modèle dans le MLOps

Inférence, Training, Transfer Learning
LoRA, QLoRA et fine-tuning léger
Hyperparamètres, perplexité, cohérence, relevance
Travaux pratiquesObjectif :Comprendre les paramètres clés influençant les modèles. 
Description :Expérimentation sur des micro-modèles pour observer l’impact du tuning.
Jour 3

Mise en production des modèles d’IA

DVC + MinIO pour la gestion de données et artefacts
MLflow pour le suivi d’expériences
Ollama + modèles personnalisés
FastAPI pour le déploiement en ligne
Travaux pratiquesObjectif :Déployer un modèle IA complet. 
Description :TP de mise en production locale avec Docker + FastAPI. Comment garantir la scalabilité et la stabilité ?

Supervision et amélioration continue

Monitoring avec Prometheus, Grafana, Evidently AI
CI/CD avec GitHub Actions et GitLab
Tests et qualité de code (Pytest, linting, coverage)
Orchestration avec Mage / Prefect
Travaux pratiquesObjectif :Superviser et améliorer un pipeline IA complet. 
Description :Mise en œuvre d’une chaîne complète MLOps avec suivi, alertes et supervision continue.

80 % du temps de formation est consacré à la pratique : mise en place d’environnements MLOps, suivi d’expériences, déploiement et supervision. Les stagiaires utiliseront LM Studio, Ollama, MLflow, Docker, Prefect et Grafana.

Date de mise à jour du programme : 14/01/2026

Dates et lieux

Du 22 au 24 juin 2026
Lieu
Distanciel
Durée
3 jrs
1990 € HT
Du 22 au 24 juin 2026
Lieu
Paris
Durée
3 jrs
1990 € HT
Du 19 au 21 octobre 2026
Lieu
Distanciel
Durée
3 jrs
1990 € HT
Du 19 au 21 octobre 2026
Lieu
Paris
Durée
3 jrs
1990 € HT

Ces formations peuvent aussi vous intéresser :

  • Niveau : Intermédiaire
  • Référence : MLDS

Surveillance d’infrastructure SI avec la fonctionnalité Machine Learning d'Elastic Stack

  • Niveau : Intermédiaire
  • Référence : AEST

Mettre en œuvre TensorFlow pour de l'apprentissage machine

  • Niveau : Intermédiaire
  • Référence : AITF

Apprenez à concevoir et déployer des modèles de Machine Learning sur des microcontrôleurs à faible consommation

  • Niveau : Intermédiaire
  • Référence : TINY


Formations Informatique
et Management
en ligne à ce jour

+
Stagiaires dans nos salles
de cours sur
l'année

4,7/5
95% de nos participants
sont satisfaits ou
très satisfaits


Formateurs experts
validés par
PLB

%
Des participants
recommandent
nos formations