Sélectionner une page

Par Guy M. Deleu, psychiatre et créateur du Cercle Théodore du Psychiatre Augmenté

Il y a deux ans, j’ai commencé à utiliser ChatGPT pour m’aider à rédiger certains rapports psychiatriques.

Je lui fournissais des informations anonymisées, inspirées de la réalité clinique, et je lui demandais des hypothèses diagnostiques, des propositions thérapeutiques, ou tout simplement de m’aider à organiser ma pensée.

J’y ai trouvé un compagnon d’écriture rapide, structuré, parfois brillant, parfois maladroit, mais toujours étonnant.

Et surtout : je restais le seul décideur, le seul clinicien, la seule conscience médicale dans la pièce.

Aujourd’hui, je me pose une question que beaucoup d’entre vous se posent certainement :

“Avons-nous encore le droit de faire cela ?”

Ce qui a changé : le cadre juridique

ChatGPT nous rappelle désormais que :

  • Il n’est pas un outil médical.

  • Il n’est pas habilité à recevoir ni héberger des données de santé.

  • Il est conçu pour un usage généraliste, non thérapeutique.

En parallèle, les lois ont évolué :

  • En Europe, le RGPD et le nouveau AI Act encadrent de plus en plus strictement l’usage des IA dans les domaines sensibles (dont la santé).

  • Pour manipuler des données médicales, il faut aujourd’hui passer par un hébergement certifié HDS (Hébergeur de Données de Santé), ce que ChatGPT n’est pas.

Ce que cela signifie concrètement

 

👉 Nous ne pouvons plus utiliser ChatGPT avec des cas cliniques réels, même anonymisés, sans enfreindre potentiellement nos obligations légales ou déontologiques.

👉 En revanche, nous pouvons continuer à l’utiliser pour des cas fictifs, pédagogiques, simulés — ce qui reste très riche et formateur.

Et pour les psychiatres ? Faut-il tout abandonner ?

Non. Il faut pivoter, pas renoncer.

Voici ce que je conseille à mes collègues :

  • Continuez à explorer, tester, structurer vos idées avec l’IA, mais sur des cas fictifs ou reformulés.

  • Ne donnez pas à ChatGPT des documents issus directement de la pratique clinique.

  • Si vous voulez aller plus loin, explorez des solutions sécurisées, certifiées, comme AWS ou Clever Cloud, où vous pouvez déployer un LLM (IA) dans un environnement conforme.

Et pour les patients ?

Si vous utilisez ChatGPT pour réfléchir, écrire, extérioriser, faites-le librement — mais souvenez-vous que :

  • ChatGPT n’est pas un thérapeute.

  • Il ne protège pas vos données de la même manière qu’un médecin.

  • Rien ne remplace une rencontre humaine, protégée par le secret médical.

L’avenir ?

ChatGPT ou ses successeurs pourraient, demain, être intégrés dans un cadre juridiquement sécurisé, éthiquement responsable, au service de la psychiatrie.

En attendant, avançons avec prudence, avec rigueur — et avec l’enthousiasme des pionniers qui savent s’adapter.

Dr Guy M. Deleu, Créateur du Cercle Théodore du Psychiatre Augmenté
www.espacetheodore.com