Le chatbot viral peut désormais remplacer plus ou moins efficacement de nombreux métiers. De là au remplacement des psychologues ?
Peu de gens s’opposent à ChatGPT. Le chatbot OpenAI permet désormais de résoudre des problèmes de mathématiques, de résoudre des sujets de philosophie (au grand dam des enseignants) et d’écrire de la poésie enflammée. Mais l’intelligence artificielle peut-elle apporter des conseils thérapeutiques et surpasser l’expertise des professionnels de santé ?
Une start-up américaine a voulu expérimenter. Koko, une plateforme en ligne qui aide les personnes ayant des problèmes de santé mentale, a remplacé ses bénévoles par ChatGPT et ses réponses générées automatiquement pendant un certain temps. Le tout sans prévenir pour les patients qui souffrent en partie de dépression. L’entreprise a rapidement mis fin à l’expérience après la controverse qu’elle a provoquée.
« D’un point de vue éthique et déontologique, c’est très troublant. On joue avec la question de la confiance, avec le secret médical, quand on est là pour les écouter. Les gens ont dû faire face à un vide avec ce moment où ils se rendent compte que personne n’écoute vraiment, s’insurge Olivier Duris, psychologue spécialiste des usages des écrans et du numérique. Les personnes déprimées sont déjà seules et se sentent abandonnées. Vous jouez le truc. Ils doivent penser que même les humains qui le sont devraient les aider à ne pas s’en soucier et plutôt utiliser une intelligence artificielle pour leur parler. »
« Un suivi avec ChatGPT ne peut être thérapeutique »
Pour que les soins de santé mentale apportent quelque chose de positif à un patient, ils ne peuvent pas « s’appuyer sur la somme des connaissances théoriques acquises au cours des cinq années d’études du psychologue », précise Jean-Paul Santoro, psychologue Digital Clinician et co-fondateur du Psycheclic. site Internet. « Ce qui constitue un suivi peut être thérapeutique et ainsi soulager les symptômes du patient et atténuer sa souffrance, c’est une expérience clinique, une rencontre », précise le médecin.
De son côté, Olivier Duris comprend que ChatGPT peut donner l’illusion d’être un outil utile, et seulement avec un tout petit détail : la façon dont le chatbot écrit ses messages. « Le fait qu’il ne livre pas les messages d’un bloc mais comme si quelqu’un écrivait renforce l’impression qu’il y a quelqu’un derrière l’écran. C’est assez tordu.
Une aide, mais pas une solution
Cependant, ChatGPT indique clairement lorsqu’on lui demande des conseils en matière de santé mentale qu’il est nécessaire de consulter un spécialiste. Elle partage tout de même quelques astuces pour faire face au stress, à une dispute avec un proche, ou à un sentiment d’inconfort. Mais chaque billet se termine par le même conseil : « Il est important de voir un psychologue qualifié et n’hésitez pas à en consulter plusieurs pour trouver celui qui correspond le mieux à vos besoins. »
Pour autant, Jean-Paul Santoro estime que les outils d’intelligence artificielle peuvent être préconisés en thérapie car « ils sont pertinents pour accompagner le patient sur des points précis entre les séances ». Il doit encore être suffisamment sophistiqué et avancé en termes de système conversationnel pour être efficace. Le psychologue cite l’exemple de l’application « My Sherpa », un outil spécialisé dans la santé mentale, mais qui, selon lui, serait davantage « une chaîne d’outils à effet thérapeutique proche de zéro ».
Cependant, ChatGPT, qui ne donne pas de véritables conseils thérapeutiques, peut aider à créer des conditions-cadres adaptées à la thérapie. Olivier Duris, par exemple, envisage d’organiser des ateliers de médiation thérapeutique pour les personnes avec autisme. Il a donc demandé à ChatGPT ce qu’il fallait penser pour se préparer à ce genre d’événement. « Les réponses étaient assez intéressantes. Mais nous ne dépendons pas d’une aide directe avec le patient, mais de points techniques. Un peu comme chercher des clés dans des livres ou des articles.
Bien avant ChatGPT: ELIZA
Cependant, ce n’est pas la première fois qu’un programme informatique tend à remplacer les psychologues. Dans les années 1960, l’informaticien germano-américain Joseph Weizenbaum a développé ELIZA, une intelligence artificielle qui simulait le rôle d’un psychothérapeute. Cependant, ELIZA était moins développé que ChatGPT, car ce dernier ne faisait que répéter les revendications du patient à l’aide de mots-clés.
Lorsqu’un patient partageait ses problèmes avec sa mère, ELIZA demandait : « Pouvez-vous me parler de votre famille ? ou s’il disait qu’il ne se sentait pas bien, le programme reformulait ce point de vue et demandait simplement : « Pourquoi ne te sens-tu pas bien ? Une sorte de ping-pong verbal qui a amené les utilisateurs à créer le terme « effet ELIZA » compte tenu du ressenti de certains patients. Cet effet inattendu consiste à adapter inconsciemment le comportement d’un ordinateur à celui d’un être humain.
Le psychologue appelle notamment les écoles et les organismes de santé à agir en amont pour que les enfants (et les moins jeunes aussi) apprennent à reconnaître la différence entre les machines et les humains, « pour ne pas tomber dans cette illusion que la machine nous comprend ». .