• NEW

Formation Déployer un modèle LLM en local

Maîtriser l'installation, la configuration et l'intégration locale de modèles de langage de grande taille
Durée 1 jour
Niveau Intermédiaire
Classe à distance
Possible

Vous pouvez suivre cette formation en direct depuis votre domicile ou votre lieu de travail. Plus d'informations sur notre solution de classe à distance...

Référence DUMO
Éligible CPF Non

Qu'est-ce que le déploiement local de LLMs ?

Les modèles de langage de grande taille (LLM) comme GPT, LLaMA ou Falcon sont des systèmes d’intelligence artificielle capables de générer et comprendre le langage naturel. Leur déploiement en local consiste à installer et configurer ces modèles sur une infrastructure interne, sans recours au cloud public.

Pourquoi suivre une formation Déployer un modèle LLM en local ?

Dans un contexte de souveraineté numérique et de maîtrise des données sensibles, l’installation d’un LLM en interne devient une compétence clé. Cette formation permet aux professionnels d'acquérir les compétences nécessaires pour choisir, déployer, optimiser et sécuriser des modèles LLM localement, en s'appuyant sur des outils open source performants. C’est un levier stratégique pour renforcer l’autonomie technologique et garantir la confidentialité des données.

Objectif opérationnel :

Savoir déployer, configurer et intégrer un modèle de langage de grande taille (LLM) en local de manière optimisée et sécurisée.

Objectif pédagogiques :

À l'issue de cette formation Déployer un modèle LLM en local, vous aurez acquis les connaissances nécessaires pour :

  • Comprendre les principes de fonctionnement des LLMs et leurs cas d’usage.
  • Identifier les contraintes matérielles et les ressources nécessaires.
  • Installer et configurer un environnement d’exécution adapté.
  • Optimiser les performances et la consommation des ressources.
  • Intégrer un LLM dans un environnement applicatif métier sécurisé.

Public :

Cette formation est destinée aux développeurs IA, ingénieurs Machine Learning, administrateurs systèmes et responsables IT.

Prérequis :

Bonne maîtrise du langage Python, des concepts de Machine Learning, et des bases solides en administration de serveurs Linux pour profiter pleinement des aspects techniques du déploiement et de l’intégration.

Jour 1

Comprendre les LLMs et leurs cas d’usage

Architecture des LLMs : GPT, LLaMA, Falcon
Pourquoi un déploiement local ? Avantages et limites
Choix du modèle : critères de sélection
Contraintes techniques et matérielles
Positionnement des LLMs dans les solutions d’entreprise
Travaux pratiquesObjectif :Identifier un cas d’usage adapté et choisir un modèle pertinent. 
Description :Étude de cas fictive. Quelles sont les exigences métiers, techniques et éthiques à prendre en compte ?

Installer et configurer l’environnement

Préparation matérielle (GPU, RAM, stockage)
Installation de Python, CUDA, dépendances nécessaires
Utilisation de frameworks : PyTorch, Hugging Face
Mise en œuvre d’Ollama ou Jan.ai
Téléchargement et tests d’un modèle préentraîné
Travaux pratiquesObjectif :Savoir installer un LLM fonctionnel et vérifiable. 
Description :Installation complète pas à pas d’un LLM local et test de requêtes. Que faire en cas d’erreurs système ?

Optimiser les performances du modèle

Quantization, pruning : réduction de la taille mémoire
Gestion fine des ressources (GPU/CPU/RAM)
Parallelisation et scalabilité multi-GPU
Accélération de l’inférence
Monitoring des performances
Travaux pratiquesObjectif :Réduire la latence et la charge système d’un modèle. 
Description :Mise en œuvre de l’optimisation avec quantization int8/float16. Comment vérifier les gains concrets ?

Intégrer un LLM dans un environnement applicatif

Création d’une API REST (FastAPI, Flask)
Ajout d’une interface conversationnelle
Authentification et contrôle des accès
Connexion à des bases de données
Sécurisation des échanges et des flux
Travaux pratiquesObjectif :Déployer une interface d’usage interne et sécurisée. 
Description :Implémentation d’un mini-chatbot entreprise connecté à une API. Quelle solution de chiffrement adopter ?

Environ 50% de la formation est dédiée à la pratique, avec utilisation de Python, PyTorch, Hugging Face, Ollama, FastAPI.

Date de mise à jour du programme : 08/07/2025

Dates et lieux

Le 06 septembre 2025
Lieu
Distanciel
Durée
1 jr
890 € HT
Le 10 septembre 2025
Lieu
Distanciel
Durée
1 jr
890 € HT
Le 10 septembre 2025
Lieu
Paris
Durée
1 jr
890 € HT
Le 10 octobre 2025
Lieu
Distanciel
Durée
1 jr
890 € HT
Le 10 octobre 2025
Lieu
Paris
Durée
1 jr
890 € HT
Le 13 octobre 2025
Lieu
Distanciel
Durée
1 jr
890 € HT
Le 12 décembre 2025
Lieu
Distanciel
Durée
1 jr
890 € HT
Le 12 décembre 2025
Lieu
Paris
Durée
1 jr
890 € HT

Ces formations peuvent aussi vous intéresser :

Exploitez l’IA générative pour accélérer le développement logiciel grâce à GitHub Copilot et ChatGPT-4

  • Niveau : Intermédiaire
  • Référence : GHCG

Personnaliser vos expériences avec Azure AI Foundry : Créez des Copilots sur mesure

  • Niveau : Intermédiaire
  • Cours officiel : Microsoft
  • Référence : AI-3016

  • Niveau : Fondamental
  • Référence : MIDJ

  • Niveau : Fondamental
  • Référence : JUNI


Formations Informatique
et Management
en ligne à ce jour

+
Stagiaires dans nos salles
de cours sur
l'année

%
De participants satisfaits
ou très satisfaits de nos
formations


Formateurs experts
validés par
PLB