Confidentialité des données et IA : utiliser ChatGPT sans trahir la confidentialité

J’utilise ChatGPT depuis trois ans dans ma pratique clinique.

Au début, c’était par curiosité. Très vite, j’ai découvert à quel point cet outil pouvait m’aider à structurer mes réflexionsrédiger plus clairement et même prendre du recul après certains entretiens.

Mais une question m’a vite rattrapé : que deviennent les données que je confie à ChatGPT ?

Dans notre métier, la parole du patient est sacrée. Elle n’appartient ni au cloud, ni à la technologie, ni à l’intelligence artificielle.

Alors j’ai cherché, testé, lu, questionné des experts : même anonymisées, certaines données peuvent laisser une trace. 

Aujourd’hui, je partage ici ma méthode et mes réflexions pour utiliser ChatGPT sans trahir la confidentialité. Parce qu’il est tout à fait possible d’être innovant et prudentcurieux et responsable.

Pourquoi la confidentialité reste une valeur fondatrice

En psychiatrie, la confiance se construit sur un cadre clair : ce que le patient dit reste entre nous. C’est une promesse implicite, mais aussi une exigence légale (GDPR) et déontologique.

Or, les chiffres européens rappellent que la santé est l’un des domaines les plus ciblés par la cybercriminalité.

Selon l’Agence européenne ENISA, 45 % des incidents dans la santé concernent des attaques informatiques, et 28 % des incidents sont des fuites de données.

En Belgique, on compte près de 2 800 tentatives d’attaques par semaine et par organisation de soins, et une fuite en 2024 a exposé plus de 50 000 rapports médicaux.

Le risque existe donc, même pour les structures bien protégées.

Mais la bonne nouvelle, c’est qu’il peut être considérablement réduit par quelques gestes simples et réfléchis.

 

Ce qu’il faut comprendre sur ChatGPT et les données

ChatGPT ne “publie” rien sur Internet, mais il fonctionne via des serveurs sécurisés :
vos messages sont traités dans le cloud, puis effacés selon les paramètres que vous choisissez.

Si vous utilisez le mode éphémère, vos conversations ne sont pas enregistrées, ni dans votre historique ni pour l’amélioration du système. C’est une excellente option pour le travail clinique.

Le mode éphémère de ChatGPT empêche donc la conservation de la conversation, mais les données transitent tout de même par les serveurs d’OpenAI (le “cloud”) le temps du traitement.

C’est une nuance importante : le risque n’est pas nul, il est seulement très fortement limité dans la durée et dans la probabilité d’exposition.

Le vrai risque ne vient donc pas de la malveillance de l’outil, mais de la nature des données qu’on y met.

Même sans nom, une phrase trop précise — “enseignante de 42 ans, en burnout depuis deux ans à Charleroi” — peut permettre une ré-identification.

C’est pourquoi j’ai adopté une règle simple : je n’entre jamais dans ChatGPT de données qui permettraient de reconnaître une personne.

Je parle d’un “patient” ou d’une “patiente”, sans prénom réel, sans date, sans lieu. Et cela suffit pour travailler efficacement.

Les bonnes pratiques que j’applique au quotidien

  1. Avant d’utiliser ChatGPT

Je décide d’abord pourquoi je l’utilise.
Souvent, c’est pour clarifier ma pensée ou rédiger un rapport à partir d’une synthèse déjà anonymisée.
Je n’y fais jamais entrer une donnée d’identité.
Et j’informe le patient que j’utilise parfois un outil d’aide à la rédaction, sans jamais transmettre ses informations personnelles.

  1. Pendant l’utilisation

J’active le mode éphémère, pour que la conversation disparaisse après usage.
Je reste attentif aux détails : pas de date, pas de lieu, pas de description trop reconnaissable.
Et je m’interdis de coller un texte brut issu d’un dossier médical — je reformule, je simplifie, je décontextualise.

  1. Après utilisation

Une fois la synthèse obtenue, je sauvegarde localement le document dans un dossier chiffré (FileVault sur mon Mac).
Je supprime ensuite la conversation dans ChatGPT.
Tous mes rapports sont ensuite archivés dans mon Dossier Médical Informatisé (Medinect), lui aussi protégé et conforme aux normes eHealth.

  1. Dans le contexte hospitalier

À l’hôpital, j’utilise le logiciel de dossiers médicales informatisées, le SIM chez Humani, intégré dans un système complexe et collectif. Ces structures sont bien encadrées, mais plus exposées (multiplicité d’interfaces, accès partagés).
Là aussi, la règle reste la même : vigilance personnelle et mots de passe robustes.
La sécurité ne dépend pas que du service informatique — elle dépend de chacun de nous.

 

Mon protocole en résumé

Étape Bon réflexe Objectif
Avant Anonymiser totalement les données Éliminer tout risque d’identification
Pendant Utiliser le mode éphémère Éviter l’enregistrement des conversations
Après Sauvegarder localement et supprimer la session Garder le contrôle total des fichiers
Toujours Verrouiller l’accès et se former régulièrement Maintenir une vigilance numérique constante

Innover sans trahir la confiance

Comme certains experts en IA médicale le rappellent, même anonymisées, certaines données peuvent laisser une trace.

Cela ne doit pas nous paralyser, mais nous inviter à la lucidité.

Le risque zéro n’existe pas, mais le risque maîtrisé est possible — et c’est déjà beaucoup.

L’important est de ne pas confondre outil d’aide et outil de stockage.

ChatGPT peut m’aider à penser, à écrire, à structurer. Mais le secret professionnel reste, lui, entre mes mains.

 

Une nouvelle éthique du psychiatre augmenté

Utiliser ChatGPT, c’est apprendre à dialoguer avec un outil intelligent sans lui déléguer notre discernement.

C’est un peu comme parler à un collègue virtuel, toujours disponible, mais à qui l’on ne confie que ce qui peut être dit hors du secret.

« Je ne bavarde pas sur les toits d’Internet,
mais c’est toi, clinicien, qui tiens la clé du silence. »

La technologie ne remplace ni la présence humaine, ni l’éthique. Elle nous pousse simplement à les redéfinir.

En conclusion

  • Oui, l’IA peut s’intégrer en psychiatrie.
  • Oui, ChatGPT peut devenir un allié discret et intelligent.
  • Et oui, il est possible de le faire dans le respect du secret médical.

Le psychiatre augmenté n’est pas celui qui se connecte davantage, mais celui qui sait quand déconnecter.

Protéger la parole du patient tout en explorant les outils de demain : voilà le véritable progrès.

Dr Guy M. Deleu
Psychiatre consultant – Spécialiste du burnout et du retour au travail
Fondateur du Cercle Théodore du Psychiatre Augmenté
espacetheodore.com