L'IA générative pose des défis uniques en matière de protection des données. Quand un collaborateur colle des données clients dans ChatGPT, que se passe-t-il vraiment ? Ce guide vous aide à déployer ces outils en conformité avec le RGPD (UE) et la LPD (Suisse) — parce qu'une amende ou une fuite de données coûte bien plus cher qu'une architecture bien pensée dès le départ.

Réponse directe

Pour être conforme : (1) évitez d'envoyer des données personnelles aux API cloud ou utilisez les options "no training", (2) privilégiez le on-prem pour les données sensibles, (3) documentez vos traitements et faites une DPIA si nécessaire.

Les risques spécifiques de l'IA générative

1. Fuite de données vers le fournisseur

Quand vous utilisez ChatGPT, Claude ou une autre API, vos prompts sont envoyés aux serveurs du fournisseur. Problèmes potentiels :

  • Données utilisées pour entraîner le modèle (sauf opt-out)
  • Stockage des logs pendant 30 jours ou plus
  • Transfert hors UE/Suisse (USA notamment)

2. Génération de données personnelles

Le LLM peut "inventer" des données personnelles (hallucinations) ou révéler des données mémorisées de son entraînement.

3. Profilage non consenti

Un assistant IA qui analyse les requêtes d'un utilisateur peut constituer un profilage au sens du RGPD.

RGPD vs LPD : différences clés

Aspect RGPD (UE) LPD (Suisse)
DPO obligatoireOui (certains cas)Non (recommandé)
Amendes max4% CA ou 20M EUREUR 250'000 (personnel)
Transfert hors paysSCC ou décision adéquationListe PFPDT ou SCC
DPIA obligatoireOui (risque élevé)Oui (risque élevé)

Architectures conformes

Option 1 : API cloud avec garde-fous

  • Utiliser Azure OpenAI ou AWS Bedrock (données en Europe)
  • Activer l'option "no training" / "data not used for training"
  • Anonymiser/pseudonymiser les données avant envoi
  • Signer un DPA (Data Processing Agreement)

Option 2 : LLM on-premise (recommandé pour données sensibles)

  • Les données ne quittent jamais votre infrastructure
  • Contrôle total sur les logs et la rétention
  • Voir notre benchmark LLM locaux

Option 3 : RAG avec données anonymisées

  • Stocker les documents dans une base vectorielle locale
  • N'envoyer au LLM que des extraits sans données personnelles
  • Anonymisation à la volée avant le prompt

Checklist conformité

  • ☐ Base légale identifiée (intérêt légitime, consentement, contrat)
  • ☐ Registre des traitements mis à jour
  • ☐ DPA signé avec le fournisseur cloud
  • ☐ Transferts hors UE/Suisse documentés (SCC si nécessaire)
  • ☐ Option "no training" activée
  • ☐ DPIA réalisée (si traitement à risque élevé)
  • ☐ Information des personnes concernées
  • ☐ Procédure de droit d'accès/effacement
"La conformité n'est pas un frein à l'innovation. C'est un cadre qui protège votre entreprise et vos clients."

Besoin d'un accompagnement conformité ?

Je peux auditer votre projet IA et vous aider à mettre en place une architecture conforme RGPD/LPD.

Réserver un audit gratuit Voir l'offre Consulting