RGPD et IA générative : pourquoi vos données ne doivent pas quitter l'UE

Vous utilisez ChatGPT, Gemini ou l'API Anthropic pour vos workflows internes ? Si vos données contiennent des informations sur des personnes (clients, employés, prospects), vous avez très probablement une obligation RGPD que vous ignorez peut-être. Voici ce que vous devez savoir.

Le problème : où vont vos données quand vous appelez une API IA ?

Quand votre application envoie un prompt à OpenAI, Google ou Anthropic, les données transitent vers des serveurs américains. Ces entreprises sont soumises au Cloud Act américain (2018), qui autorise les autorités fédérales américaines à accéder aux données stockées par ces sociétés, même hébergées en Europe.

Le RGPD (Règlement Général sur la Protection des Données), en vigueur depuis 2018 dans l'UE, encadre strictement ces transferts. Le Privacy Shield, qui facilitait les transferts UE-États-Unis, a été annulé par la Cour de Justice de l'UE en 2020 (arrêt Schrems II). Son successeur, le Data Privacy Framework, fait l'objet de contestations similaires.

Attention : Envoyer des données personnelles à une API américaine sans base légale adaptée constitue une violation du RGPD passible d'une amende pouvant atteindre 20 millions d'euros ou 4% du chiffre d'affaires annuel mondial.

Ce qui est considéré comme "donnée personnelle"

Le RGPD définit la donnée personnelle très largement : toute information permettant d'identifier directement ou indirectement une personne physique. Dans un contexte IA, cela inclut :

Tableau des risques par fournisseur

FournisseurSiègeDonnées conservées ?Niveau de risque RGPD
OpenAI APIUSA Non (API), mais possible en cas de violation ou réquisition légale Élevé
Google Gemini APIUSA Données utilisées pour améliorer les modèles si non opt-out Élevé
Anthropic ClaudeUSA Non par défaut (Enterprise), mais soumis au Cloud Act Modéré
Mistral AI (API)France 🇫🇷 Non déclaré pour entraînement (politique à vérifier) Modéré
LLM auto-hébergé (Heberking AI)Votre infra Jamais — les données ne quittent pas vos serveurs Aucun

Les trois scénarios à risque les plus courants

1. Le chatbot de service client

Votre service client utilise un LLM pour résumer les tickets ou suggérer des réponses. Les tickets contiennent le nom du client, son adresse, parfois son numéro de commande. Chaque appel API envoie des données personnelles hors UE.

2. L'assistant RH

Vous utilisez un LLM pour analyser des CV, rédiger des évaluations de performance ou résumer des entretiens. Les données de salariés sont des données personnelles protégées. Le transfert hors UE sans accord de traitement conforme est illégal.

3. La revue de code / documentation interne

Vous pensez que le code source ne contient pas de données personnelles ? Regardez de plus près : tokens d'API hardcodés, emails dans les commentaires, noms de clients dans les variables, logs parsés. Les données se glissent partout.

Que dit la CNIL ?

La CNIL a publié plusieurs recommandations sur l'IA générative en 2024-2025. Les points clés :

Bon à savoir : Les API de certains fournisseurs proposent un DPA (Data Processing Agreement). OpenAI en propose un, mais il ne résout pas le problème du Cloud Act : l'accord contractuel n'empêche pas une réquisition judiciaire américaine.

La solution : garder les données en Europe

La seule façon de se mettre totalement hors de portée des risques RGPD liés aux transferts hors UE est de traiter les données sur votre propre infrastructure, hébergée en Europe.

Les modèles open source comme Gemma 4 (Google), LLaMA 3.3 (Meta) ou Mistral peuvent être déployés sur vos serveurs. Vous bénéficiez d'une IA de qualité comparable aux API cloud, avec une confidentialité totale.

Ce que ça change concrètement

Quel modèle choisir pour rester conforme ?

Les modèles open source modernes couvrent la majorité des cas d'usage. En 2026, avec la quantization Q4_K_M, vous pouvez faire tourner des modèles 7-9B sur un serveur standard sans GPU haut de gamme.

Cas d'usageModèle recommandéParamètresInfra requise
Service client, résuméGemma 4 9B9BGPU 6 Go ou CPU 32 Go RAM
Code, documentationLLaMA 3.3 8B8BGPU 5.5 Go ou CPU 32 Go RAM
Classification, extractionPhi-4 Mini3.8BCPU 16 Go RAM
Chatbot simple, RAGGemma 4 4B4BCPU 8 Go RAM

Conclusion

Le RGPD n'est pas une option. Pour les entreprises qui traitent des données personnelles avec des LLM, l'auto-hébergement est passé de "bonne pratique" à obligation juridique dans beaucoup de cas. La bonne nouvelle : les modèles open source ont atteint un niveau de qualité qui rend ce choix techniquement viable sans compromis majeur sur les performances.

Mettez-vous en conformité RGPD dès aujourd'hui

Heberking AI déploie votre LLM sur une infrastructure en France, sans aucun transfert de données hors UE. Gemma 4, LLaMA 3.3, Mistral disponibles en 60 secondes.

Démarrer gratuitement →
← Retour au blog Guide : héberger un LLM → FAQ Mentions légales