🧠
Formations IA
  • Modules
  • Guides
  • Exercices
  • Ma Progression
0%
← Retour aux modules
Module 9 — L'IA Act européen
0/3
  • 1Qu'est-ce que l'IA Act ?
  • 2Classification des risques
  • 3Obligations et bonnes pratiques
  • ?Quiz du module
Partie 3 › Module 9 › Leçon 1 sur 3

Qu'est-ce que l'IA Act ?

📖 ~8 min de lecture 🎯 Débutant

L'IA Act (Artificial Intelligence Act) est le premier cadre juridique mondial sur l'intelligence artificielle. Proposé par la Commission européenne en avril 2021 et officiellement adopté en 2024, ce règlement encadre l'utilisation de l'IA dans toute l'Union européenne.

Pourquoi une telle loi ?

💥
Explosion des usages
L'IA est désormais utilisée dans tous les secteurs : santé, justice, éducation, finance, marketing, RH. Cette omniprésence crée des risques inédits.
⚠️
Risques identifiés
Discriminations automatisées, décisions non transparentes, traitement abusif des données, manipulation sociale. Exemple : un algorithme de recrutement écartant systématiquement les CV féminins.
🎯
Objectifs de l'IA Act
Garantir la sécurité, la transparence, la responsabilité et la non-discrimination. Prévenir les abus tout en soutenant l'innovation. Créer un marché unique de l'IA fiable au sein de l'UE.

Le calendrier d'application

DateÉtapeCe qui change
1er août 2024Entrée en vigueurLe règlement est officiellement adopté
2 février 2025InterdictionsLes pratiques IA inacceptables sont interdites + obligation de littératie IA
2 août 2025Obligations GPAIObligations pour les modèles d'IA à usage général (ChatGPT, Gemini...)
2 août 2026Haut risqueApplication des règles pour les systèmes IA à haut risque + obligations de transparence
2 août 2027Application complèteDélai étendu pour les produits déjà réglementés (dispositifs médicaux, automobile)
⚠️ Sanctions prévues
  • Jusqu'à 35 M€ ou 7% du CA mondial pour les pratiques interdites
  • Jusqu'à 15 M€ ou 3% du CA mondial pour d'autres violations
  • Jusqu'à 7,5 M€ ou 1% du CA mondial pour informations incorrectes

Cas concret — Les modèles GPAI (ChatGPT, Gemini)

💼 Cas métier — Votre usage quotidien de ChatGPT

Contexte : Vous utilisez ChatGPT et Gemini tous les jours au bureau. Ces outils sont classés "IA à usage général" (GPAI) par l'IA Act.

Ce que ça implique pour OpenAI et Google (depuis août 2025) :

  • Transparence sur les données d'entraînement
  • Documentation des limites d'usage
  • Réduction des biais et hallucinations

Ce que ça implique pour vous (utilisateur en entreprise) :

  • Informer vos clients si du contenu est généré par IA
  • Vérifier les informations avant publication
  • Ne jamais déléguer de décisions critiques à l'IA sans supervision humaine

À retenir

📝 Les points essentiels
  • L'IA Act est le premier cadre juridique mondial sur l'IA, adopté par l'UE en 2024
  • Il classe les systèmes IA par niveau de risque (inacceptable, élevé, limité, minimal)
  • Les sanctions vont jusqu'à 35 M€ ou 7% du CA mondial
  • ChatGPT et Gemini sont classés GPAI avec des obligations depuis août 2025
  • L'application complète sera effective en août 2026-2027
Partie 3 › Module 9 › Leçon 2 sur 3

Classification des risques

📖 ~9 min de lecture 🎯 Débutant

Le cœur de l'IA Act repose sur une classification par niveau de risque. Chaque système d'IA est évalué selon son impact potentiel sur les droits fondamentaux, et les obligations varient en conséquence.

Les 4 niveaux de risque

🚫
Risque inacceptable
INTERDIT depuis février 2025
Systèmes d'IA contraires aux droits fondamentaux de l'UE. Utilisation totalement interdite.
⚠️
Risque élevé
Strictement encadré (août 2026)
Systèmes IA dans des domaines sensibles (santé, justice, emploi, éducation). Obligations lourdes de documentation, surveillance et transparence.
ℹ️
Risque limité
Transparence obligatoire (août 2026)
Chatbots, générateurs d'images, deepfakes. Obligation principale : informer l'utilisateur qu'il interagit avec une IA ou que le contenu est généré artificiellement.
✅
Risque minimal
Aucune obligation spécifique
Filtres anti-spam, jeux vidéo, recommandations de contenu, outils de gestion d'inventaire. Libre utilisation.

Exemples concrets par niveau de risque

NiveauExemples concretsCe qui est exigé
Inacceptable Notation sociale des citoyens (crédit social), manipulation subliminale, reconnaissance faciale en temps réel dans l'espace public, scraping massif d'images faciales (type Clearview AI), reconnaissance des émotions au travail ❌ Interdit
Élevé IA de recrutement (tri de CV), IA dans l'éducation (notation, orientation), crédit scoring, IA en justice, gestion d'infrastructures critiques (eau, gaz, électricité) Analyse de risques, documentation technique, données d'entraînement fiables, surveillance humaine obligatoire
Limité ChatGPT, Gemini (chatbots), MidJourney, Firefly (génération d'images), deepfakes Informer l'utilisateur qu'il interagit avec une IA. Marquer le contenu comme généré artificiellement.
Minimal Filtres anti-spam, IA dans les jeux vidéo, recommandations Netflix/Spotify, gestion d'inventaire Aucune obligation spécifique

Cas pratique — Où se situe votre usage ?

💼 Cas métier — Auto-diagnostic IA Act

Scénario 1 : Vous utilisez ChatGPT pour rédiger des emails commerciaux → Risque limité. Obligation : indiquer au client que le contenu a pu être assisté par IA.

Scénario 2 : Votre service RH utilise un logiciel IA pour trier les CV → Risque élevé. Obligation : documentation, audit des biais, supervision humaine des décisions.

Scénario 3 : Vous utilisez un filtre anti-spam sur votre messagerie → Risque minimal. Aucune obligation.

Scénario 4 : Vous voulez installer des caméras avec reconnaissance faciale en temps réel dans vos locaux → Risque inacceptable. ❌ Interdit.

À retenir

📝 Les points essentiels
  • L'IA Act classe les systèmes en 4 niveaux de risque : inacceptable, élevé, limité, minimal
  • Les pratiques inacceptables sont interdites depuis février 2025
  • ChatGPT et Gemini sont classés risque limité → obligation de transparence
  • L'IA en recrutement, éducation, justice = risque élevé → obligations lourdes
  • Chaque entreprise doit évaluer le niveau de risque de ses usages IA
Partie 3 › Module 9 › Leçon 3 sur 3

Obligations et bonnes pratiques en entreprise

📖 ~8 min de lecture 🎯 Débutant

Au-delà de connaître la classification des risques, chaque entreprise doit mettre en place des bonnes pratiques concrètes pour se conformer à l'IA Act. Voici un guide pratique.

Les 5 bonnes pratiques essentielles

📢
1. Déclarer l'usage de l'IA
Informez clairement vos clients et partenaires quand du contenu est généré par IA. Un simple mention "Contenu assisté par IA" suffit dans de nombreux cas.
📋
2. Politique interne de gouvernance IA
Rédigez une charte d'utilisation de l'IA définissant les usages autorisés, les outils validés, les données interdites et les responsabilités.
👥
3. Comité éthique IA
Constituez un comité transversal (IT, juridique, RH, direction) pour évaluer les projets IA et garantir la conformité. Selon Gartner, 60% des entreprises devront en avoir un d'ici 2026.
🔍
4. Audits réguliers
Effectuez des audits périodiques de vos outils IA pour détecter les biais, vérifier la conformité et documenter les usages.
🎓
5. Former les équipes
L'IA Act impose une obligation de littératie IA depuis février 2025 : tous les utilisateurs d'IA en entreprise doivent être formés. C'est exactement ce que fait cette formation !

Cas pratique — Rédiger une charte IA d'entreprise

💼 Cas métier — Cabinet de conseil (40 personnes)

Contexte : Votre directeur vous demande de rédiger la charte IA de l'entreprise. Vous utilisez ChatGPT pour produire une première version.

🧪 Prompt pour rédiger une charte IA
Tu es un consultant en gouvernance IA et conformité IA Act.

Rédige une charte d'utilisation de l'intelligence artificielle pour un cabinet de conseil de 40 personnes. Cette charte doit couvrir :

1. Objectif et périmètre de la charte
2. Outils IA autorisés (ChatGPT, Gemini) et conditions d'usage
3. Données interdites à partager avec l'IA (cf. Module 6)
4. Obligation de transparence (mentionner l'usage de l'IA aux clients)
5. Responsabilités (qui valide le contenu IA avant envoi)
6. Sanctions en cas de non-respect
7. Formation obligatoire pour les nouveaux collaborateurs

Ton : professionnel, clair, applicable immédiatement.
Format : document structuré avec titres et sous-titres, prêt à être signé par les collaborateurs.
ℹ️ L'amende OpenAI — un précédent réel

En décembre 2024, l'autorité italienne de protection des données (Garante) a infligé une amende de 15 millions d'euros à OpenAI pour ChatGPT. Les motifs : absence de base légale pour l'entraînement du modèle, manquement à l'information des utilisateurs, et défaut de vérification d'âge. C'est un signal fort : les régulateurs européens surveillent activement les outils d'IA. Source : Euronews, décembre 2024.

À retenir

📝 Les points essentiels
  • 5 bonnes pratiques : déclarer l'usage, charte interne, comité éthique, audits, formation
  • L'obligation de littératie IA est en vigueur depuis février 2025
  • Une charte IA d'entreprise est indispensable — l'IA peut aider à la rédiger
  • Les régulateurs européens sont actifs (amende OpenAI 15M€ en Italie)
  • La conformité IA Act n'est pas un frein — c'est un avantage concurrentiel

Formations IA © 2025. Tous droits réservés.