Sécurité des systèmes d’intelligence artificielle

Réf. : DN-36611
Durée : 3 jours
Tarif : 2331,00  HT

Toutes nos formations sont disponibles en présentiel ou en distanciel.

Objectifs

A l’issue de la formation, vous serez capable de :

  • Maîtriser le vocabulaire et les concepts principaux des modèles de deep learning modernes
  • Comprendre les risques liés à la compromission d’un système d’IA par un tiers malveillant
  • Préparer et réaliser un audit de sécurité approfondi d’un système d’IA
  • Mettre en place des mesures correctives et des bonnes pratiques de développement pour assurer la sécurité de ces systèmes

Contenu de la formation

Jour 1 – Vulnérabilités du modèle

Concepts fondamentaux du deep learning

  • Explication des bases du deep learning :
    • Processus d’entraînement
    • Fine-tuning et transfert d’apprentissage
  • Étude des architectures courantes :
    • CNN, RNN, Transformers, LLMs
  • Analyse des jeux de données et impact sur la robustesse des modèles
  • Compréhension des embeddings et de leur utilisation dans les modèles

Attaques antagonistes

  • Introduction aux attaques par perturbation minime des entrées (adversarial examples)
  • Études de cas d’attaques contre des modèles d’IA :
    • FGSM, PGD, DeepFool
  • Ateliers pratiques :
    • Génération et détection d’exemples adversariaux

Injection de prompt

  • Exploration des vulnérabilités des modèles génératifs et des LLMs
  • Cas pratiques :
    • Contournement des garde-fous via des attaques par injection
  • Analyse des stratégies de mitigation

🔹 Empoisonnement des données d’entraînement

  • Présentation des attaques visant à compromettre l’entraînement des modèles
  • Démonstration de la manipulation des jeux de données
  • Exercices pratiques :
    • Création et identification de jeux de données corrompus

🔹 Attaques sur l’apprentissage fédéré

  • Explication du concept d’apprentissage fédéré et des risques associés
  • Démonstration d’attaques sur la confidentialité et l’intégrité du modèle :
    • Model Inversion, Poisoning
  • Étude des contre-mesures possibles

🔹 Inversion de modèle

  • Présentation des attaques visant à reconstruire les données d’entraînement à partir des sorties du modèle
  • Ateliers pratiques :
    • Extraction d’informations sensibles
  • Discussion sur les mesures de défense
Jour 2 – Vulnérabilités applicatives

Injection via les sorties du modèle

  • Exploration des failles liées aux réponses des modèles (ex. contournement de filtres)
  • Études de cas :
    • Exploitation des sorties IA dans des contextes réels
  • Exercices pratiques :
    • Sécurisation des réponses d’un modèle

Fuite de données sensibles

  • Analyse des risques de divulgation involontaire d’informations personnelles
  • Études de cas et démonstrations :
    • Récupération d’informations confidentielles
  • Stratégies de protection des modèles et mise en conformité RGPD

Attaques sur la chaîne d’approvisionnement

  • Présentation des risques liés à l’intégration de modèles tiers et aux dépendances logicielles
  • Démonstration :
    • Injection de backdoors et manipulation de modèles pré-entraînés
  • Mise en œuvre de stratégies d’audit et de contrôle de la supply chain IA

Élévation de privilèges via le modèle

  • Cas d’usage où l’IA peut être exploitée pour contourner des restrictions de sécurité
  • Expérimentations :
    • Scénarios d’exploitation de modèles mal protégés
  • Développement de contre-mesures adaptées

 Attaques sur RAG (Retrieval-Augmented Generation)

  • Étude des risques spécifiques aux systèmes utilisant RAG
  • Tests pratiques :
    • Récupération non autorisée d’informations
    • Manipulation du contexte
  • Élaboration de solutions de protection des pipelines IA-RAG
Jour 3 – Mesures défensives et bonnes pratiques + évaluation

 Méthodes de préparation et de restitution d’un audit de sécurité IA

  • Présentation des étapes clés d’un audit de sécurité sur un modèle IA
  • Pratique :
    • Simulation d’un audit de bout en bout
    • Rédaction d’un rapport d’évaluation

 Sécurisation des systèmes d’IA, de la conception jusqu’à la mise en production

  • Application des principes de Secure AI Development Lifecycle
  • Bonnes pratiques pour la mise en production de modèles robustes
  • Déploiement d’outils de monitoring et de détection des anomalies

 Gestes à adopter en cas d’attaque, considérations juridiques et protection des données

  • Détection et réponse aux incidents de sécurité IA
  • Présentation des réglementations en vigueur et obligations légales
  • Mise en place d’un plan de remédiation et gestion de crise

 Correction des travaux pratiques des jours 1 et 2

  • Revue des exercices et explication des erreurs courantes
  • Partage des meilleures stratégies pour renforcer la sécurité des modèles

Fin de session et Examen de compétences (Durée : 2h)

  • Test théorique : QCM
  • Épreuve pratique :
    • Capture The Flag (CTF) pour valider les acquis
Autres formations disponibles en Intelligence artificiel

Public

  • Développeurs, responsables techniques, architectes travaillant sur des projets d’IA
  • Consultants en cybersécurité souhaitant renforcer leur éventail de compétences

Pré-requis

  • Expérience en programmation, idéalement liée à l’IA ou la science des données
  • Notions de base en sécurité applicative

Méthodes pédagogiques

  • Présentation interactive et illustrée : exposés théoriques enrichis par des exemples concrets et des démonstrations en temps réel.
  • Exercices immersifs
  • Mises en situation : résolution via CTF
Réf. : DN-36611
Durée : 3 jours
Tarif : 2331,00  HT
Partager cette formation
Facebook
Twitter
LinkedIn

Demande de devis

*Sous réserve de maintien de la session
Session ouverte à partir de 3 participants
Format Paris - Lille
Durée 3 jours
Prix 2331 € HT
Demande de devis
Format Dans vos locaux ou à distance
Durée 3 jours
Prix Nous contacter
Demande de devis

Vous souhaitez une formation sur-mesure ou vous disposez d’un cahier des charges ?

Nous contacter

Prochaines sessions

03/06/2025
07/07/2025
09/07/2025
19/11/2025
30/12/2025

*Sous réserve de maintien de la session
Sessions inter entreprises ouvertes à partir de 3 participants
Intra : base tarifaire pour un groupe de 3 personnes

LinkedIn
Email
Print

Nouvelles formations

Dernières actualités

Nous contacter

Nous suivre