La politique de confidentialité d'Anthropic
Avant d'utiliser Claude pour des tâches sensibles — données clients, documents internes, code propriétaire — il est essentiel de comprendre comment Anthropic collecte, stocke et utilise vos données. Cette leçon résume les points clés de la politique de confidentialité officielle d'Anthropic, sans interprétation.
Toutes les informations de ce module proviennent exclusivement de la documentation officielle d'Anthropic : anthropic.com/privacy, privacy.claude.com, support.claude.com, code.claude.com/docs et trust.anthropic.com. Rien n'a été inventé ni extrapolé.
Ce qu'Anthropic collecte
Lorsque vous utilisez un produit Claude (Chat, Cowork ou Code), Anthropic collecte plusieurs catégories de données :
Durées de rétention des données
L'un des aspects les plus importants : combien de temps Anthropic conserve vos données. Les durées varient selon le type de données et votre plan :
| Type de données | Durée de rétention |
|---|---|
| Conversations supprimées | Retirées de l'historique immédiatement, purgées du backend sous 30 jours |
| Données consommateur (entraînement désactivé) | 30 jours |
| Données consommateur (entraînement activé) | 5 ans |
| Logs API (depuis sept. 2025) | 7 jours |
| Données Team/Enterprise (défaut) | 30 jours |
| Enterprise avec rétention personnalisée | Minimum 30 jours, configurable |
| Enterprise avec Zero Data Retention (ZDR) | Aucun stockage (sauf scores de sécurité) |
| Violations de politique d'usage | Jusqu'à 2 ans |
| Scores de classification Trust & Safety | Jusqu'à 7 ans |
| Feedback utilisateur (pouce haut/bas) | 5 ans |
| Rapports de bug (commande /bug) | 5 ans |
Si vous avez activé l'option "Améliorer le modèle" (model improvement), vos conversations sont conservées 5 ans. Si vous l'avez désactivée, elles sont purgées après 30 jours. C'est un écart majeur. Vérifiez votre paramètre dans claude.ai > Paramètres > Confidentialité des données.
Qui peut voir vos conversations ?
C'est une question fréquente et légitime. Voici la réponse officielle d'Anthropic :
Les employés d'Anthropic n'ont pas accès à vos échanges dans leur fonctionnement normal.
L'accès est possible uniquement quand : vous consentez explicitement, un signalement est fait, ou qu'une révision est nécessaire pour appliquer la politique d'usage. Seule l'équipe Trust & Safety y a accès, sur une base "need to know".
Quand des données sont utilisées pour l'amélioration des modèles, elles sont automatiquement dé-liées de votre identifiant utilisateur (email). En revanche, les révisions Trust & Safety peuvent être reliées à votre compte.
Protection des données
Anthropic met en place plusieurs couches de protection technique :
Deux régimes juridiques distincts
Anthropic distingue clairement deux types de clients, avec des conditions juridiques différentes :
| Aspect | Consommateur (Free/Pro/Max) | Commercial (Team/Enterprise/API) |
|---|---|---|
| Responsable des données | Anthropic | L'organisation cliente |
| Conditions applicables | Consumer Terms + Privacy Policy | Commercial Terms of Service |
| Entraînement du modèle | Opt-in (l'utilisateur choisit) | Jamais par défaut |
| Contrôles admin | Non | Oui (Team et Enterprise) |
La distinction fondamentale : sur les plans consommateur (Free, Pro, Max), c'est Anthropic qui est responsable de vos données. Sur les plans commerciaux (Team, Enterprise, API), c'est votre organisation. Cela change tout en termes de droits et de contrôle.
Chat : vos données et leur usage
Le mode Chat (claude.ai) est le point d'entrée le plus utilisé. C'est aussi celui où les questions de confidentialité sont les plus fréquentes : est-ce que mes conversations entraînent le modèle ? Qui peut les lire ? Comment me protéger ?
Entraînement du modèle : comment ça marche
Anthropic utilise un système opt-in pour les plans consommateur (Free, Pro, Max). Cela signifie que vous devez activement consentir pour que vos conversations servent à améliorer Claude.
Si "Model Improvement" est activé (ON)
- L'ensemble de la conversation (prompts + réponses) peut être utilisé pour améliorer les modèles
- Le contenu, les styles personnalisés et les préférences de conversation peuvent être inclus
- Les données sont automatiquement dé-liées de votre identifiant (email) avant utilisation
- Rétention : 5 ans
Si "Model Improvement" est désactivé (OFF)
- Vos conversations ne sont pas utilisées pour entraîner les modèles
- Rétention : 30 jours uniquement (pour des raisons opérationnelles et de sécurité)
Même avec "Model Improvement" désactivé, certaines données peuvent encore être utilisées dans les cas suivants :
- Conversations signalées par les classificateurs de sécurité (utilisées pour améliorer les modèles internes Trust & Safety)
- Contenu explicitement signalé par l'utilisateur
- Évaluations pouce haut/bas
- Participation au Trusted Tester Program
Le mode Incognito
Claude propose un mode Incognito disponible sur tous les plans (Free, Pro, Max, Team, Enterprise). C'est l'option la plus protectrice pour une conversation ponctuelle.
- Jamais utilisées pour l'entraînement du modèle, même si Model Improvement est activé
- Non sauvegardées dans l'historique des conversations
- Non intégrées dans la mémoire de Claude
- Ne peuvent pas être rouvertes une fois fermées
- Toujours soumises à la rétention standard (30 jours pour la sécurité)
Sur claude.ai, activez le mode Incognito lors de la création d'une nouvelle conversation. Une indication visuelle vous rappelle que vous êtes en mode Incognito tout au long de la session.
Données des connecteurs
Un point important souvent négligé : les données brutes provenant des connecteurs (Google Drive, serveurs MCP) sont exclues de l'entraînement, sauf si vous les copiez manuellement dans une conversation.
Le contenu brut du fichier n'est PAS utilisé pour l'entraînement.
Cet extrait fait maintenant partie de la conversation et PEUT être utilisé (si Model Improvement est activé).
Supprimer vos données
Vous avez le droit de supprimer vos conversations à tout moment :
| Action | Effet immédiat | Effet backend |
|---|---|---|
| Supprimer une conversation | Disparaît de l'historique | Purgée des serveurs sous 30 jours |
| Supprimer toutes les conversations | Historique vidé | Purgées des serveurs sous 30 jours |
| Supprimer son compte | Compte désactivé | Toutes les données purgées sous 30 jours |
Pour les conversations contenant des données sensibles : 1) Utilisez le mode Incognito, 2) Si ce n'est pas fait, supprimez la conversation après usage, 3) Vérifiez que "Model Improvement" est désactivé dans vos paramètres.
Cowork : confidentialité en mode agent
Le mode Cowork (application desktop) est un agent autonome qui exécute du code dans une VM sandbox, crée des fichiers et accède à votre système de fichiers. Cette puissance accrue soulève des questions spécifiques de confidentialité.
Comment Cowork gère vos données
Le mode Cowork suit les mêmes règles de confidentialité que le mode Chat, avec quelques spécificités liées à son fonctionnement en sandbox :
Spécificités du mode Cowork
Le mode Cowork est soumis aux mêmes conditions que le Chat concernant l'entraînement des modèles (opt-in pour les consommateurs, jamais par défaut pour les commerciaux). La différence est que Cowork manipule souvent des fichiers plus volumineux et plus sensibles (tableurs de données, documents internes, scripts).
Ce qui est partagé avec Anthropic
| Élément | Transmis aux serveurs ? | Détail |
|---|---|---|
| Vos instructions (prompts) | Oui | Nécessaire pour le traitement par le modèle |
| Les réponses de Claude | Oui | Générées côté serveur |
| Fichiers uploadés | Oui | Pour analyse et traitement |
| Fichiers créés par Claude dans la VM | Oui | Créés sur l'infrastructure serveur |
| Code exécuté dans la sandbox | Oui | Exécuté côté serveur dans la VM |
Bonnes pratiques spécifiques à Cowork
Ne chargez pas de fichiers contenant des mots de passe, des clés API, des numéros de sécurité sociale ou des données bancaires dans Cowork.
Si vous devez analyser des données sensibles (fichier clients, données RH), anonymisez les données personnelles AVANT de les charger dans Cowork.
Si vous utilisez Cowork avec des données d'entreprise, un plan Team ou Enterprise garantit que vos données ne sont jamais utilisées pour l'entraînement.
Quand Cowork accède à vos services via des connecteurs (Gmail, Google Drive, etc.), les données transitent par les serveurs d'Anthropic. Soyez conscient que tout document lu, tout email consulté passe par cette infrastructure, même si les données brutes des connecteurs sont exclues de l'entraînement par défaut.
Cowork est puissant mais traite potentiellement des données plus sensibles que le Chat classique. La règle d'or : ne chargez jamais dans Cowork un fichier que vous ne seriez pas prêt à envoyer par email. Si le fichier est trop sensible pour un email, il est trop sensible pour Cowork sur un plan consommateur.
Claude Code : données et télémétrie
Claude Code fonctionne dans votre terminal et accède directement à votre codebase. Il s'exécute localement sur votre machine, mais communique avec les serveurs d'Anthropic. Comprendre exactement ce qui est envoyé et ce qui reste local est crucial, surtout pour du code propriétaire.
Architecture : local + cloud
Claude Code a une architecture hybride :
Ce qui est transmis aux serveurs
- NPM — Installation et mises à jour
- Anthropic Console Auth — Authentification
- Anthropic Public API — Tous les prompts et réponses (votre code y compris)
Tous vos prompts et toutes les réponses du modèle sont transmis à l'API Anthropic. Cela signifie que si Claude Code lit un fichier de votre codebase pour vous aider, le contenu de ce fichier transite par les serveurs d'Anthropic.
Télémétrie : ce qui est collecté en arrière-plan
En plus des échanges avec l'API, Claude Code se connecte à des services tiers pour la télémétrie. Voici le détail complet :
| Service | Objectif | Ce qui est collecté | Variable d'opt-out |
|---|---|---|---|
| Statsig | Métriques opérationnelles | Latence, fiabilité, patterns d'usage. Pas de code ni de chemins de fichiers | DISABLE_TELEMETRY=1 |
| Sentry | Logs d'erreur | Données d'erreur opérationnelles | DISABLE_ERROR_REPORTING=1 |
| Bug reports (/bug) | Rapports de bugs | Copie complète de l'historique de conversation, code inclus | DISABLE_BUG_COMMAND=1 |
| Enquêtes de session | Satisfaction | Note numérique uniquement (1, 2, 3 ou dismiss). Aucun code ni contenu | CLAUDE_CODE_DISABLE_FEEDBACK_SURVEY=1 |
Opt-out global
Pour désactiver tout le trafic non-essentiel d'un coup, utilisez cette variable d'environnement :
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
Pour que cette variable soit permanente, ajoutez-la à votre fichier ~/.zshrc (Mac) ou ~/.bashrc (Linux). Elle sera active à chaque nouvelle session terminal.
Le piège de la commande /bug
La commande /bug dans Claude Code est pratique pour signaler un problème, mais elle envoie une copie complète de votre historique de conversation à Anthropic, y compris tout le code que Claude a lu pendant la session.
Si vous travaillez sur du code confidentiel et que vous utilisez /bug, tout le code vu par Claude pendant la session sera envoyé à Anthropic et conservé 5 ans. Désactivez-le avec DISABLE_BUG_COMMAND=1 si nécessaire.
Fournisseurs tiers (Bedrock, Vertex, Foundry)
Si vous utilisez Claude Code via AWS Bedrock, Google Vertex ou Foundry, tout le trafic non-essentiel est automatiquement désactivé. Pas de Statsig, pas de Sentry, pas de bug reporting, pas d'enquêtes.
Claude Code sur le web (exécution cloud)
Quand Claude Code s'exécute dans le cloud (pas localement) :
- Le dépôt est cloné dans une VM isolée
- Les credentials GitHub n'entrent jamais dans la sandbox — l'authentification passe par un proxy sécurisé
- Tout le trafic sortant passe par un proxy de sécurité avec audit logging
- Les mêmes politiques de rétention et d'usage s'appliquent
Si vous travaillez sur du code propriétaire, ajoutez ces variables à votre profil shell :
# Désactive tout le trafic non-essentiel de Claude Code
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
Comparatif des plans et niveaux de protection
Tous les plans Claude ne se valent pas en matière de confidentialité. Cette leçon vous donne une vue comparative complète pour choisir le plan adapté à votre niveau de sensibilité.
Le grand comparatif confidentialité
| Fonctionnalité | Free | Pro | Max | Team | Enterprise | API |
|---|---|---|---|---|---|---|
| Entraînement opt-in/out | Choix utilisateur | Choix utilisateur | Choix utilisateur | Non (défaut) | Non (défaut) | Jamais |
| Rétention (sans entr.) | 30 j | 30 j | 30 j | 30 j | Configurable | 7 j |
| Rétention (avec entr.) | 5 ans | 5 ans | 5 ans | N/A | N/A | N/A |
| Zero Data Retention | Non | Non | Non | Non | Oui | Oui (avec accord) |
| Rétention personnalisée | Non | Non | Non | Non | Oui (min 30 j) | Via ZDR |
| Incognito (Chat uniquement) | Oui | Oui | Oui | Oui | Oui | N/A |
| Contrôles admin | Non | Non | Non | Oui | Oui | N/A |
| Désactiver le feedback | Non | Non | Non | Oui (admin) | Oui (admin) | N/A |
| Audit logs | Non | Non | Non | Limité | Oui | N/A |
| Compatible HIPAA | Non | Non | Non | Non | Oui (avec BAA) | Oui (avec BAA) |
| Rapport SOC 2 détaillé | Non | Non | Non | Non | Sous NDA | Sous NDA |
Quel plan pour quel usage ?
Zoom sur les plans Team et Enterprise
Plan Team
- Données jamais utilisées pour l'entraînement par défaut
- Rétention standard de 30 jours
- Les admins peuvent désactiver la soumission de feedback (pouce haut/bas) pour toute l'organisation via Paramètres > Données et confidentialité > "Évaluer les chats"
- Suppression des conversations visible côté utilisateur, mais Anthropic conserve les données backend selon la politique de rétention
Plan Enterprise
- Toutes les protections du plan Team, plus :
- Rétention personnalisable : configurable par le Primary Owner/Owner (minimum 30 jours)
- Zero Data Retention : aucun stockage (sauf les résultats des classificateurs de sécurité). Activé par l'équipe Anthropic pour votre organisation
- Audit logs : traçabilité complète de toutes les activités de rétention
- HIPAA : configurations compatibles disponibles (nécessite un BAA, avec certaines limitations comme l'exclusion de la recherche web)
- Rapport SOC 2 détaillé disponible sous NDA
Les conditions commerciales (pas d'entraînement par défaut) couvrent : Claude for Work (Team et Enterprise), l'API Anthropic, Amazon Bedrock, Google Cloud Vertex API, Claude Gov, et Claude for Education.
Posez-vous la question : "Si ces données étaient publiées demain, quel serait l'impact ?" Si la réponse est "grave", vous avez besoin d'un plan Team minimum, et probablement Enterprise.
Checklist des bonnes pratiques
Cette dernière leçon rassemble toutes les bonnes pratiques en une checklist actionnable. Imprimez-la, partagez-la avec votre équipe, et appliquez-la systématiquement.
Les données à ne JAMAIS partager avec Claude
Anthropic recommande explicitement de ne jamais partager les types de données suivants, quel que soit votre plan :
Checklist par mode d'utilisation
Mode Chat (claude.ai)
Allez dans claude.ai > Paramètres > Confidentialité des données. Désactivez si vous ne souhaitez pas que vos conversations servent à l'entraînement.
Cliquez sur l'icône fantôme lors de la création d'une conversation. Jamais utilisé pour l'entraînement, pas sauvegardé dans l'historique.
Les conversations supprimées sont retirées de l'historique immédiatement et purgées des serveurs sous 30 jours.
Remplacez les vrais noms, emails et numéros par des données fictives quand c'est possible.
Mode Cowork (application desktop)
Assurez-vous qu'aucun fichier ne contient de mots de passe, clés API ou données personnelles sensibles.
Si vous chargez un fichier Excel de clients, remplacez d'abord les données personnelles par des données fictives.
Sur un plan consommateur, les données pourraient être utilisées pour l'entraînement (si activé). Un plan commercial l'interdit par défaut.
Claude Code (terminal)
Ajoutez export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1 à votre profil shell pour désactiver toute la télémétrie non-essentielle.
La commande /bug envoie l'intégralité de l'historique de conversation (code inclus) à Anthropic, conservé 5 ans.
Assurez-vous que les fichiers .env, credentials.json, et autres secrets ne sont pas accessibles par Claude Code.
Sur ces plateformes, tout le trafic non-essentiel est automatiquement désactivé et Anthropic ne voit pas directement vos données.
Résumé des stratégies de protection par niveau
| Niveau de sensibilité | Configuration recommandée |
|---|---|
| Faible (usage général, pas de données sensibles) | Plan Free/Pro avec Model Improvement désactivé |
| Moyen (données clients, documents internes) | Plan Team + mode Incognito pour les sujets sensibles |
| Élevé (code propriétaire, données réglementées) | Plan Enterprise + rétention personnalisée |
| Maximum (données médicales, financières réglementées) | Enterprise + Zero Data Retention + Bedrock/Vertex |
Quel que soit votre plan, vos paramètres, et même en mode Incognito : si une conversation est signalée par les classificateurs de sécurité d'Anthropic, elle peut être examinée par l'équipe Trust & Safety. Cette exception existe pour tous les plans, y compris Enterprise. C'est une mesure de sécurité, pas une violation de confidentialité.
Sources officielles
Toutes les informations de ce module proviennent de ces sources officielles Anthropic :
- anthropic.com/privacy — Politique de confidentialité
- privacy.claude.com — Centre de confidentialité (FAQ détaillées)
- support.claude.com — Centre d'aide (guides pratiques)
- code.claude.com/docs/en/data-usage — Documentation Claude Code sur l'usage des données
- trust.anthropic.com — Centre de confiance (certifications, compliance)
- anthropic.com/engineering/claude-code-sandboxing — Blog technique sur le sandboxing
Vous connaissez maintenant les règles de confidentialité de Claude dans leur intégralité :
- Politique Anthropic — Ce qui est collecté, combien de temps, qui peut voir
- Chat — Opt-in pour l'entraînement, mode Incognito, suppression des conversations
- Cowork — Mêmes règles que Chat, mais attention aux fichiers uploadés
- Code — Tout passe par l'API, télémétrie désactivable, piège du /bug
- Plans — Free/Pro/Max vs Team vs Enterprise : des niveaux de protection très différents
- Bonnes pratiques — Ne jamais partager : mots de passe, cartes bancaires, données médicales, SSN
Testez vos connaissances avec le quiz ci-dessous.