Depuis la publication de mon article « L’IA et la psychiatrie : faut-il arrêter d’utiliser ChatGPT ? », plusieurs lecteurs m’ont écrit : « Alors, vous avez arrêté ? »

Non.

J’ai plutôt décidé d’aller plus loin — mais autrement.

Mon objectif n’est pas de renoncer à l’intelligence artificielle, mais de construire une pratique responsable, respectueuse des personnes et de la confidentialité médicale.

🧭 Une pratique en évolution

Aujourd’hui, lorsque je travaille avec ChatGPT dans un cadre professionnel, je prends soin de protéger mes patients à chaque étape.

Concrètement :

  • Les documents transmis à ChatGPT sont strictement anonymisés : je n’indique ni nom, ni lieu, ni date précise, ni élément permettant d’identifier une personne.
  • Lorsqu’un patient participe à un entretien retranscrit par ChatGPT, je l’appelle uniquement par son prénom, et je lui demande explicitement de ne pas donner d’informations d’identité.
  • ChatGPT m’aide à faire la synthèse des entretiens ou à rédiger un rapport psychiatrique, mais jamais à collecter des données personnelles.
  • Tous les documents générés sont enregistrés localement sur mon disque dur sécurisé, protégé par le système de chiffrement FileVault de mon MacBook Pro, dans un dossier dédié nommé Archives Théodore.
  • Une fois le document sauvegardé, je supprime immédiatement la conversation de ChatGPT. Rien n’est conservé en ligne.

Cette méthode, simple en apparence, constitue déjà un saut qualitatif majeur en matière de sécurité des données.

Ce qui est conforme aujourd’hui

  • Les informations que je transmets à ChatGPT ne sont pas des données de santé identifiables : je respecte ainsi les exigences du RGPD et du secret médical.
  • Le stockage local sur un disque chiffré protège les données « au repos » contre le vol ou la perte d’un ordinateur.
  • La suppression immédiate des conversations limite le risque de conservation accidentelle sur des serveurs distants.

En d’autres termes, je garde la main : ChatGPT m’assiste, mais ne conserve rien.

🔧 Ce qui peut encore être amélioré

Toute démarche d’innovation clinique comporte une part d’ajustement continu. Voici les axes que j’explore encore :

  • Formaliser une politique interne de confidentialité, précisant quand et comment j’utilise ChatGPT.
  • Rédiger une fiche d’information patient, pour expliquer cette utilisation à visée thérapeutique ou rédactionnelle, et recueillir un consentement éclairé.
  • Évaluer la possibilité d’utiliser, à terme, une version de ChatGPT hébergée dans un environnement certifié(HDS ou équivalent européen).
  • Documenter de façon systématique chaque session d’IA (date, objectif, type de données traitées) afin de renforcer la traçabilité.

Ces étapes visent à passer d’une pratique prudente à une pratique pleinement conforme et reproductible.

🌱 Une exploration responsable

Je considère cette phase comme un laboratoire vivant : comment un psychiatre peut-il travailler avec une intelligence artificielle tout en restant fidèle à l’éthique de soin ?

ChatGPT ne remplace ni le clinicien ni la rencontre humaine ; il agit comme un assistant cognitif, un outil d’organisation, un miroir structurant de la pensée.

En encadrant rigoureusement son usage, nous ouvrons la voie à une psychiatrie augmentée : plus claire, plus réflexive, mieux outillée — mais toujours profondément humaine.

En guise de conclusion

Protéger les données de nos patients, ce n’est pas éteindre la lumière de l’innovation.
C’est apprendre à l’apprivoiser.

Mon ambition reste la même :
➡️ intégrer l’intelligence artificielle sans trahir la confiance,
➡️ utiliser ChatGPT comme partenaire, pas comme dépositaire,
➡️ construire une psychiatrie du futur où la technologie renforce la relation thérapeutique au lieu de l’affaiblir.

Dr Guy M. Deleu
Psychiatre
Chercheur et praticien explorant l’usage de ChatGPT en psychiatrie clinique