Jour 1 : L'IA comme copilote sécurité et premiers assistants
L'IA générative au service de l'équipe IT : fondamentaux et limites
Ce que les LLM savent faire en sécurité : analyser un log, décortiquer un email suspect, expliquer une alerte, résumer un rapport de vulnérabilité
Ce que les LLM ne savent PAS faire : remplacer un SIEM, garantir l'absence de menace, traiter des données confidentielles en clair
Les hallucinations en contexte sécurité : pourquoi un LLM peut inventer un indicateur de compromission et comment s'en protéger
Grille de confiance IA par type de tâche sécurité : quand faire confiance, quand vérifier, quand ne pas utiliser
Démonstration : analyse d'un même log suspect avec ChatGPT, Gemini et Claude — différences de résultatsTravaux pratiques : 10 tâches sécurité du quotidien : Pour chacune, les participants testent les 3 outils et remplissent la grille de confiance.Atelier : Créer son Custom GPT « Analyste Sécurité L1 »
Architecture du GPT : instructions système de sécurité, ton et format de réponse, limitations explicites
Uploader la politique de sécurité interne, les playbooks de réponse, les templates de tickets comme base de connaissances
Instructions avancées : le GPT doit classifier la menace (critique / haute / moyenne / faible), recommander l'action, et citer la procédure applicable
Test avec 10 scénarios réels : phishing, malware, social engineering, demande d'accès suspecte, alerte antivirusTravaux pratiques : Construction complète du Custom GPT en mode guidé. Chaque participant personnalise les instructions pour son environnement. Test croisé : les participants soumettent des scénarios au GPT d'un collègue.Atelier : Créer son Gemini Gem « Triage Help Desk Sécurité »
Créer un Gem connecté à la documentation IT dans Google Drive (procédures, FAQ, contacts, escalade)
Le Gem classifie automatiquement les demandes par niveau de criticité et recommande la procédure à suivre
Synchronisation automatique avec Drive : quand les procédures sont mises à jour, le Gem utilise la dernière version
Génération de réponses types pour les incidents courants (mot de passe compromis, email suspect, poste infecté)Travaux pratiques : Création du Gem connecté à 5 documents de procédure. Test avec 10 demandes de support sécurité. Le Gem doit classifier correctement au moins 8/10. Ajustement et itération.Jour 2 : Assistants avancés, simulation et veilleAtelier : Créer son Claude Project « Base de Connaissances Cyber »
Structurer un Project intégrant : politique de sécurité, playbooks d'incident, architecture réseau, contacts d'escalade, inventaire des outils
L'équipe peut interroger la base en langage naturel : « Quelle est la procédure en cas de ransomware ? »
Mise à jour collaborative : chaque membre de l'équipe peut enrichir la base
Cas d'usage avancé : le Project qui aide à rédiger les post-mortems d'incidentsTravaux pratiques : Chaque participant structure et alimente un Claude Project avec la documentation de son environnement. Test avec 10 questions opérationnelles. Rédaction d'un post-mortem assisté par IA.Atelier : Créer un Claude Artifact « Simulateur d'Incident »
Générer un Artifact interactif qui simule un incident de sécurité (ransomware, fuite de données, compromission de compte)
L'Artifact pose des questions à l'utilisateur, évalue ses réponses, suggère des améliorations, donne un score final
Personnaliser les scénarios par rôle (help desk, admin sys, responsable IT) et par type de menace
Déployer l'Artifact comme outil de formation continue pour l'équipeTravaux pratiques : Chaque participant crée un Artifact simulateur avec 3 scénarios (ransomware, phishing réussi, accès non autorisé). Test croisé entre participants. Le meilleur simulateur est élu par le groupe.Atelier : Mettre en place sa veille sécurité IA automatisée
Custom GPT de veille : configurer un GPT qui résume les flux RSS cybersécurité chaque matin (CERT-FR, ANSSI, US-CERT)
Gemini Gem de veille : connecter les newsletters et bulletins sécurité via Google Drive pour une synthèse hebdomadaire
La routine de veille en 5 minutes : le prompt du matin qui résume les menaces pertinentes pour votre infrastructure
Alertes spécifiques : configurer son assistant pour surveiller les CVE critiques affectant les technologies de l'entrepriseTravaux pratiques : Chaque participant configure un pipeline de veille complet (source → GPT/Gem → résumé quotidien) et le teste avec les actualités sécurité de la semaine.Intégration et plan de déploiement
Comment présenter ses nouveaux assistants IA à la direction et obtenir le feu vert
Sécurité des assistants IA eux-mêmes : que mettre et ne pas mettre dans les bases de connaissances
Mesurer l'impact : indicateurs de performance avant/après IA (temps de triage, taux de résolution, qualité des tickets)
Plan de déploiement progressif : pilote avec l'équipe, extension à l'entreprise, itération continueTravaux pratiques : Chaque participant prépare une présentation de 5 minutes « pitch direction » de ses outils IA. Tour de table avec feedback. Rédaction du plan de déploiement à 30/60/90 jours.