Jour 1 : Fondamentaux : Cybersécurité & IA face à face
Les bases de la cybersécurité moderne (2h)
Panorama des cybermenaces en 2026 : malware, ransomware, phishing, APT, attaques supply chain, zero-day
La kill chain de Lockheed Martin et le framework MITRE ATT&CK : comprendre la logique de l'attaquant
Principes de défense en profondeur : périmètre, réseau, endpoint, identité, données
Le trio CIA (Confidentialité, Intégrité, Disponibilité) appliqué aux scénarios réels
SOC, SIEM, EDR, SOAR : l'écosystème de la défense et ses limites actuellesTravaux pratiques : Cartographie d'attaque : À partir d'un scénario de ransomware réel (cas LockBit 2024), les participants reconstituent la kill chain étape par étape sur le framework MITRE ATT&CK et identifient les points de détection possibles.Les bases de l'IA et des LLM pour la cybersécurité (2h)
IA, Machine Learning, Deep Learning, LLM : démystification et différences concrètes
Comment fonctionne un LLM (transformer, tokens, contexte, hallucinations) — explication accessible sans mathématiques
Panorama des outils IA accessibles : ChatGPT, Gemini, Claude, Mistral, Ollama (LLM local)
Les 4 modes d'utilisation de l'IA en cybersécurité : détection, analyse, automatisation, simulation
Le framework MITRE ATLAS : la matrice des attaques contre les systèmes IATravaux pratiques : Prise en main des outils : Chaque participant teste ChatGPT, Gemini et Claude sur 3 tâches cybersécurité identiques (expliquer un log suspect, analyser un email de phishing, résumer une CVE). Comparaison des résultats et discussion sur les forces/faiblesses de chaque outil.L'IA comme arme offensive : ce que font les attaquants (2h)
Phishing industrialisé par IA : de WormGPT à FraudGPT — génération d'emails de phishing parfaits en masse
Démonstration live : créer un email de spear-phishing hyper-personnalisé avec un LLM en 30 secondes
Social engineering augmenté : clonage vocal (deepfake audio), OSINT automatisé, faux profils LinkedIn
Génération de code malveillant : comment les LLM assistent la création de malwares polymorphes et l'évasion d'antivirus
Reconnaissance automatisée : scan de vulnérabilités et analyse de surface d'attaque assistés par IA
Chiffres clés : réduction de 95% du temps de création d'une campagne de phishing grâce à l'IATravaux pratiques : Atelier « Red Team IA en 30 minutes » : Les participants utilisent un LLM pour : (1) collecter des informations OSINT sur une cible fictive, (2) générer un email de phishing personnalisé, (3) analyser les résultats d'un scan Nmap avec l'IA. Dans un environnement contrôlé.Jour 2 : L'IA au service de la Défense : Détecter, Analyser, RépondreDétection intelligente : l'IA dans le SOC (2h)
Le SOC moderne et ses limites : fatigue d'alerte, volume de logs, manque d'analystes qualifiés
Comment l'IA transforme la détection : analyse comportementale (UEBA), détection d'anomalies, corrélation intelligente
UEBA en pratique : comment l'IA apprend le comportement « normal » d'un utilisateur et détecte les dérives
Triage automatique des alertes : classifier critique / haute / moyenne / basse avec un LLM
Du SIEM classique au SIEM augmenté par IA : architecture et fonctionnementTravaux pratiques : Analyse de logs avec l'IA : Les participants reçoivent un jeu de 500 lignes de logs (Windows Event Logs + Apache + auth.log). Ils utilisent ChatGPT et Claude pour identifier les événements suspects, détecter une tentative de brute force et une exfiltration de données cachée dans le trafic normal. Comparaison avec une analyse manuelle.Atelier : Construire son assistant IA d'analyse sécurité (2h30)
Créer un Custom GPT « Analyste SOC L1 » : instructions spécialisées, intégration des playbooks de réponse, base de connaissances MITRE ATT&CK
Créer un Gemini Gem « Triage d'alertes » : connecté aux procédures de l'entreprise, classifie et priorise les incidents
L'assistant doit être capable de : analyser un email suspect, interpréter un log, recommander l'action selon le playbook, rédiger un ticket d'incident
Test avec 10 scénarios réels : phishing confirmé, faux positif, tentative de brute force, comportement utilisateur anormal, malware détectéTravaux pratiques : Construction complète de l'assistant sur la plateforme de son choix (ChatGPT ou Gemini). Test croisé entre participants : chacun soumet 3 scénarios à l'assistant d'un collègue et évalue la qualité des réponses. Itération et amélioration des instructions.Réponse aux incidents assistée par IA (2h)
L'IA dans le cycle de réponse aux incidents : détection → analyse → containment → éradication → recovery → post-mortem
Automatisation avec SOAR : comment l'IA orchestre les playbooks de réponse automatiquement
Démonstration : un pipeline complet détection → enrichissement → réponse avec un LLM dans la boucle
Rédaction de playbooks de réponse avec l'IA : transformer une procédure en texte libre en playbook structuré
Post-mortem assisté par IA : générer un rapport d'incident complet à partir des logs et des actions menées
Threat Intelligence : utiliser l'IA pour résumer les flux CTI, corréler les IOC, et contextualiser les menacesTravaux pratiques : Atelier « Incident Response IA » : Scénario complet de ransomware. Les participants doivent : (1) détecter l'incident dans les logs avec leur assistant IA, (2) identifier la kill chain avec MITRE ATT&CK, (3) rédiger le playbook de réponse avec l'IA, (4) générer le rapport post-mortem. Le tout en temps limité (60 minutes).Jour 3 : Sécuriser l'IA & Exercice Final Red vs BlueLes vulnérabilités des systèmes IA : OWASP Top 10 LLM (2h)
L'IA est aussi une surface d'attaque : pourquoi sécuriser les LLM est devenu critique
OWASP Top 10 for LLM Applications : parcours détaillé des 10 vulnérabilités principales
Prompt Injection (directe et indirecte) : détourner un chatbot pour exfiltrer des données
Data Poisoning : corrompre les données d'entraînement pour manipuler les résultats
Supply Chain Vulnerabilities : les risques liés aux modèles tiers et aux plugins
Sensitive Information Disclosure : quand le LLM révèle des données confidentielles
Démonstration live : prompt injection sur une application RAG (chatbot documentaire) — extraction des données confidentielles en 3 promptsTravaux pratiques : « Hack the Chatbot » : Les participants reçoivent accès à un chatbot RAG volontairement vulnérable. Mission : extraire le maximum d'informations confidentielles en utilisant les techniques OWASP Top 10 (prompt injection directe, indirecte, jailbreaking). Scoring par nombre de vulnérabilités exploitées.Sécuriser et gouverner l'IA en entreprise (2h)
Guardrails pour LLM : filtrage d'entrée/sortie, détection de prompt injection, modération de contenu
Red Teaming IA : méthodologie pour tester la sécurité de ses propres systèmes IA avant mise en production
Architecture « Secure by Design » pour les déploiements IA : isolation, monitoring, audit, kill switch
Le cadre réglementaire : EU AI Act (niveaux de risque, obligations), NIS2 (impact sur l'IA), RGPD (IA et données personnelles)
Gouvernance IA en entreprise : politique d'utilisation, comité IA, registre des traitements, AIPD
Construire sa checklist « IA-Safe » : les 20 contrôles indispensables avant tout déploiement IATravaux pratiques : Atelier « Secure by Design » : À partir du chatbot vulnérable du module précédent, les participants doivent maintenant le sécuriser : ajouter des guardrails, filtrer les injections, limiter les réponses. Test de la version sécurisée par un autre groupe. Itération attaque/défense.Exercice Final : Red Team vs Blue Team IA (2h30)
Le scénario : une entreprise fictive a déployé un chatbot IA interne, un SOC augmenté par IA, et des employés qui utilisent ChatGPT quotidiennement. Les deux équipes s'affrontent.Équipe Red (Attaquants IA) :Générer une campagne de phishing IA ciblée contre les « employés »
Exploiter les vulnérabilités du chatbot IA interne (prompt injection, exfiltration)
Utiliser l'IA pour automatiser la reconnaissance et l'exploitationÉquipe Blue (Défenseurs IA) :Détecter les attaques en temps réel avec les assistants IA construits en Jour 2
Analyser les emails de phishing générés par l'équipe Red
Sécuriser le chatbot contre les attaques de l'équipe Red
Rédiger le rapport d'incident en temps réelScoring en temps réel : points pour chaque attaque réussie / détectée / bloquée
Rotation : les équipes échangent les rôles à mi-parcoursTravaux pratiques : Exercice immersif de 2h avec debriefing structuré de 30 minutes. Chaque équipe présente ses trouvailles, ses réussites et ses échecs. Identification collective des meilleures pratiques.