Par Guy M. Deleu, psychiatre et créateur du Cercle Théodore du Psychiatre Augmenté
Il y a deux ans, j’ai commencé à utiliser ChatGPT pour m’aider à rédiger certains rapports psychiatriques.
Je lui fournissais des informations anonymisées, inspirées de la réalité clinique, et je lui demandais des hypothèses diagnostiques, des propositions thérapeutiques, ou tout simplement de m’aider à organiser ma pensée.
J’y ai trouvé un compagnon d’écriture rapide, structuré, parfois brillant, parfois maladroit, mais toujours étonnant.
Et surtout : je restais le seul décideur, le seul clinicien, la seule conscience médicale dans la pièce.
Aujourd’hui, je me pose une question que beaucoup d’entre vous se posent certainement :
“Avons-nous encore le droit de faire cela ?”
Ce qui a changé : le cadre juridique
ChatGPT nous rappelle désormais que :
-
Il n’est pas un outil médical.
-
Il n’est pas habilité à recevoir ni héberger des données de santé.
-
Il est conçu pour un usage généraliste, non thérapeutique.
En parallèle, les lois ont évolué :
-
En Europe, le RGPD et le nouveau AI Act encadrent de plus en plus strictement l’usage des IA dans les domaines sensibles (dont la santé).
-
Pour manipuler des données médicales, il faut aujourd’hui passer par un hébergement certifié HDS (Hébergeur de Données de Santé), ce que ChatGPT n’est pas.
Ce que cela signifie concrètement
👉 Nous ne pouvons plus utiliser ChatGPT avec des cas cliniques réels, même anonymisés, sans enfreindre potentiellement nos obligations légales ou déontologiques.
👉 En revanche, nous pouvons continuer à l’utiliser pour des cas fictifs, pédagogiques, simulés — ce qui reste très riche et formateur.
Et pour les psychiatres ? Faut-il tout abandonner ?
Non. Il faut pivoter, pas renoncer.
Voici ce que je conseille à mes collègues :
-
Continuez à explorer, tester, structurer vos idées avec l’IA, mais sur des cas fictifs ou reformulés.
-
Ne donnez pas à ChatGPT des documents issus directement de la pratique clinique.
-
Si vous voulez aller plus loin, explorez des solutions sécurisées, certifiées, comme AWS ou Clever Cloud, où vous pouvez déployer un LLM (IA) dans un environnement conforme.
Et pour les patients ?
Si vous utilisez ChatGPT pour réfléchir, écrire, extérioriser, faites-le librement — mais souvenez-vous que :
-
ChatGPT n’est pas un thérapeute.
-
Il ne protège pas vos données de la même manière qu’un médecin.
-
Rien ne remplace une rencontre humaine, protégée par le secret médical.
L’avenir ?
ChatGPT ou ses successeurs pourraient, demain, être intégrés dans un cadre juridiquement sécurisé, éthiquement responsable, au service de la psychiatrie.
En attendant, avançons avec prudence, avec rigueur — et avec l’enthousiasme des pionniers qui savent s’adapter.
Dr Guy M. Deleu, Créateur du Cercle Théodore du Psychiatre Augmenté
www.espacetheodore.com