Aller au contenu principal

RAG et Fine Tuning d’un LLM

Concevoir un système RAG et fine-tuner un LLM à l’aide des outils de l’écosystème Python
REF : RAFT
Prochaine session garantie : 26/05/2026
Regroupe des participants de différentes entreprises autour d'un même programme, à dates fixes.
Durée :
3 jours
Niveau :
Intermédiaire
Lieu :
Paris
Format :
Présentiel / Distanciel

1 990€ HT


Description de la formation RAG Fine Tuning LLM

Qu’est-ce que RAG et le Fine Tuning d’un LLM ?

Le Retrieval-Augmented Generation (RAG) est une architecture hybride combinant la recherche d’information et la génération de texte à l’aide de modèles de langage (LLM). Le fine-tuning permet d’adapter un LLM à un domaine spécifique en le réentraînant sur des jeux de données ciblés, afin d’en améliorer la pertinence.

Pourquoi suivre une formation RAG et Fine Tuning d’un LLM ?

Les LLM ont transformé la manière dont on conçoit les assistants virtuels, les moteurs de recherche et les agents conversationnels. En Python, des bibliothèques comme HuggingFace Transformers, LangChain ou LlamaIndex permettent de créer des systèmes RAG puissants. Cette formation permet de concevoir et déployer un système RAG entièrement personnalisé, et de fine-tuner des modèles pour des cas d’usage métier avec Python.

Programme de la formation

Date de mise à jour du programme : 22/01/2026

Dates et lieux

Période souhaitée
Lieux
Type d'affichage

Questions fréquentes