- Référence : DPMC
- Durée : 3 jours (21h)
- Lieu : Au choix. À distance ou en présentiel, à Paris ou en Régions
En intra
Vous pouvez suivre cette formation en direct depuis votre domicile ou votre lieu de travail. Plus d'informations sur notre solution de classe à distance...
À l’issue de la formation, le participant sera capable de :
À l’issue de la formation, les participants seront capables de :
Public :
Développeurs, ingénieurs logiciels, architectes applicatifs, chercheurs et enseignants souhaitant moderniser leurs compétences en programmation parallèle et optimisation multicœur.
Prérequis :
Évolution des architectures multicœurs (Intel, AMD, ARM, Apple Silicon).
Architectures hybrides CPU/GPU/NPU : principes et enjeux.
Fonctionnement interne d’un processeur multicœur : pipeline, cache, cohérence mémoire.
Parallélisme matériel et logiciel : instruction, thread, tâche, donnée.
Synchronisation et cohérence mémoire : verrous, sections critiques, atomicité.
Panorama des outils et bibliothèques : OpenMP, TPL, multiprocessing, CUDA, OpenCL, SYCL.
Modélisation logicielle d’applications parallèles : tâches, données, dépendances.
Programmation multithread moderne :
std::jthread, std::async, std::future).Task, Parallel.For, async/await).threading, concurrent.futures).Synchronisation : mutex, sémaphores, std::atomic, Monitor, lock.
Communication inter-processus (IPC) : mémoire partagée, pipes, gRPC (aperçu).
Comparatif multithread / multiprocess : performances et isolation mémoire.
Principes de la programmation parallèle : SPMD, SIMD, MIMD.
Parallélisation de boucles et traitements de données :
Utilisation des GPU pour le calcul : CUDA, OpenCL 3.0, SYCL/oneAPI.
Introduction à la vectorisation : NEON (ARM), AVX-512 (Intel).
Mesure et optimisation des performances parallèles.
Bonnes pratiques de conception multicœur et gestion des ressources.
Récapitulatif des approches étudiées : threads, processus, parallélisme sur CPU et GPU.
Bonnes pratiques de conception et d’optimisation multicœur.
Évolutions des langages et outils (C++23, .NET 8, Python 3.12).
Lien avec l’intelligence artificielle : les techniques de parallélisation, de calcul GPU et de vectorisation constituent la base des frameworks d’IA modernes (TensorFlow, PyTorch, etc.).
Perspectives : montée en puissance des architectures hétérogènes et des environnements cloud/edge.
L'outil Open source BOUML sera utilisé pour la modélisation UML, Visual Studio express(tm) pour la manipulation des langages C# et C++, NetBeans(tm) 6.x pour Java. Les exemples seront démontrés grâce aux langages UML, Java, C++ et Dot Net.
Les avis figurant ci-dessous sont issus des fiches d’évaluation que remplissent les participants à la fin de la formation. Ils sont ensuite publiés automatiquement si les personnes ont explicitement accepté que nous les diffusions.
Mon avis sur la salle de formation :
"Il aurait été bon de disposer avant la formation de la liste des logiciels requis ainsi que la possibilité de vérifier la compatibilité des matériels requis (carte graphique notamment) pour réaliser les TP"
De la physique quantique à ses applications révolutionnaires (cryptographie, algorithmique...)
Découvrir et implémenter la librairie RxJS
Formations Informatique
et Management
en ligne à ce jour
+
Stagiaires dans nos salles
de cours sur
l'année
4,7/5
94% de nos participants
sont satisfaits ou
très satisfaits
Formateurs experts
validés par
PLB
%
Des participants
recommandent
nos formations