Qu'est-ce que l'IA Act ?
L'IA Act (Artificial Intelligence Act) est le premier cadre juridique mondial sur l'intelligence artificielle. Proposé par la Commission européenne en avril 2021 et officiellement adopté en 2024, ce règlement encadre l'utilisation de l'IA dans toute l'Union européenne.
Pourquoi une telle loi ?
Le calendrier d'application
| Date | Étape | Ce qui change |
|---|---|---|
| 1er août 2024 | Entrée en vigueur | Le règlement est officiellement adopté |
| 2 février 2025 | Interdictions | Les pratiques IA inacceptables sont interdites + obligation de littératie IA |
| 2 août 2025 | Obligations GPAI | Obligations pour les modèles d'IA à usage général (ChatGPT, Gemini...) |
| 2 août 2026 | Haut risque | Application des règles pour les systèmes IA à haut risque + obligations de transparence |
| 2 août 2027 | Application complète | Délai étendu pour les produits déjà réglementés (dispositifs médicaux, automobile) |
- Jusqu'à 35 M€ ou 7% du CA mondial pour les pratiques interdites
- Jusqu'à 15 M€ ou 3% du CA mondial pour d'autres violations
- Jusqu'à 7,5 M€ ou 1% du CA mondial pour informations incorrectes
Cas concret — Les modèles GPAI (ChatGPT, Gemini)
Contexte : Vous utilisez ChatGPT et Gemini tous les jours au bureau. Ces outils sont classés "IA à usage général" (GPAI) par l'IA Act.
Ce que ça implique pour OpenAI et Google (depuis août 2025) :
- Transparence sur les données d'entraînement
- Documentation des limites d'usage
- Réduction des biais et hallucinations
Ce que ça implique pour vous (utilisateur en entreprise) :
- Informer vos clients si du contenu est généré par IA
- Vérifier les informations avant publication
- Ne jamais déléguer de décisions critiques à l'IA sans supervision humaine
À retenir
- L'IA Act est le premier cadre juridique mondial sur l'IA, adopté par l'UE en 2024
- Il classe les systèmes IA par niveau de risque (inacceptable, élevé, limité, minimal)
- Les sanctions vont jusqu'à 35 M€ ou 7% du CA mondial
- ChatGPT et Gemini sont classés GPAI avec des obligations depuis août 2025
- L'application complète sera effective en août 2026-2027
Classification des risques
Le cœur de l'IA Act repose sur une classification par niveau de risque. Chaque système d'IA est évalué selon son impact potentiel sur les droits fondamentaux, et les obligations varient en conséquence.
Les 4 niveaux de risque
Exemples concrets par niveau de risque
| Niveau | Exemples concrets | Ce qui est exigé |
|---|---|---|
| Inacceptable | Notation sociale des citoyens (crédit social), manipulation subliminale, reconnaissance faciale en temps réel dans l'espace public, scraping massif d'images faciales (type Clearview AI), reconnaissance des émotions au travail | ❌ Interdit |
| Élevé | IA de recrutement (tri de CV), IA dans l'éducation (notation, orientation), crédit scoring, IA en justice, gestion d'infrastructures critiques (eau, gaz, électricité) | Analyse de risques, documentation technique, données d'entraînement fiables, surveillance humaine obligatoire |
| Limité | ChatGPT, Gemini (chatbots), MidJourney, Firefly (génération d'images), deepfakes | Informer l'utilisateur qu'il interagit avec une IA. Marquer le contenu comme généré artificiellement. |
| Minimal | Filtres anti-spam, IA dans les jeux vidéo, recommandations Netflix/Spotify, gestion d'inventaire | Aucune obligation spécifique |
Cas pratique — Où se situe votre usage ?
Scénario 1 : Vous utilisez ChatGPT pour rédiger des emails commerciaux → Risque limité. Obligation : indiquer au client que le contenu a pu être assisté par IA.
Scénario 2 : Votre service RH utilise un logiciel IA pour trier les CV → Risque élevé. Obligation : documentation, audit des biais, supervision humaine des décisions.
Scénario 3 : Vous utilisez un filtre anti-spam sur votre messagerie → Risque minimal. Aucune obligation.
Scénario 4 : Vous voulez installer des caméras avec reconnaissance faciale en temps réel dans vos locaux → Risque inacceptable. ❌ Interdit.
À retenir
- L'IA Act classe les systèmes en 4 niveaux de risque : inacceptable, élevé, limité, minimal
- Les pratiques inacceptables sont interdites depuis février 2025
- ChatGPT et Gemini sont classés risque limité → obligation de transparence
- L'IA en recrutement, éducation, justice = risque élevé → obligations lourdes
- Chaque entreprise doit évaluer le niveau de risque de ses usages IA
Obligations et bonnes pratiques en entreprise
Au-delà de connaître la classification des risques, chaque entreprise doit mettre en place des bonnes pratiques concrètes pour se conformer à l'IA Act. Voici un guide pratique.
Les 5 bonnes pratiques essentielles
Cas pratique — Rédiger une charte IA d'entreprise
Contexte : Votre directeur vous demande de rédiger la charte IA de l'entreprise. Vous utilisez ChatGPT pour produire une première version.
Rédige une charte d'utilisation de l'intelligence artificielle pour un cabinet de conseil de 40 personnes. Cette charte doit couvrir :
1. Objectif et périmètre de la charte
2. Outils IA autorisés (ChatGPT, Gemini) et conditions d'usage
3. Données interdites à partager avec l'IA (cf. Module 6)
4. Obligation de transparence (mentionner l'usage de l'IA aux clients)
5. Responsabilités (qui valide le contenu IA avant envoi)
6. Sanctions en cas de non-respect
7. Formation obligatoire pour les nouveaux collaborateurs
Ton : professionnel, clair, applicable immédiatement.
Format : document structuré avec titres et sous-titres, prêt à être signé par les collaborateurs.
En décembre 2024, l'autorité italienne de protection des données (Garante) a infligé une amende de 15 millions d'euros à OpenAI pour ChatGPT. Les motifs : absence de base légale pour l'entraînement du modèle, manquement à l'information des utilisateurs, et défaut de vérification d'âge. C'est un signal fort : les régulateurs européens surveillent activement les outils d'IA. Source : Euronews, décembre 2024.
À retenir
- 5 bonnes pratiques : déclarer l'usage, charte interne, comité éthique, audits, formation
- L'obligation de littératie IA est en vigueur depuis février 2025
- Une charte IA d'entreprise est indispensable — l'IA peut aider à la rédiger
- Les régulateurs européens sont actifs (amende OpenAI 15M€ en Italie)
- La conformité IA Act n'est pas un frein — c'est un avantage concurrentiel