La génération de texte a pris une tournure surprenante, parfois époustouflante, ces dernières semaines avec la sortie de la dernière solution ChatGPT d’OpenAI. Cette fameuse intelligence artificielle, qui selon certains peut discuter avec vous « comme un humain », offre de nombreuses perspectives pour de nombreuses industries. Les professions « intellectuelles » ne sont plus à l’abri d’être assistées par ces algorithmes ou d’être totalement remplacées dans un futur proche. Certes, ChatGPT peut rédiger un article de blog cohérent et grammaticalement valide sur de nombreux sujets et dans de nombreuses langues différentes, mais comment évaluez-vous la pertinence des recommandations sur des sujets que vous ne connaissez pas ?
La santé est un domaine sensible qui permet d’évaluer la pertinence et la robustesse de ce type de solution. Depuis de nombreuses années, des chercheurs et des innovateurs travaillent sur la reconnaissance de la parole des patients afin de comprendre les plaintes par les mots et de donner plus rapidement aux patients des conseils ou des solutions possibles. « Dr Google » peut parfois jouer des tours, vous l’avez probablement constaté par vous-même en tapant quelques symptômes dans le moteur de recherche et en rencontrant un résultat qui vous indique qu’il s’agit sans aucun doute d’un cancer.
Un modèle aussi puissant que ChatGPT peut-il remplacer les médecins pour répondre aux questions de santé ? Nous avons effectué le test pour vous et avons parlé à des experts de la santé pour analyser les réponses.
Le médecin intelligent est-il prêt à passer le test de Turing?
Les outils de compréhension et de génération du langage naturel ont parcouru un long chemin avec l’avènement des Transformers, des modèles pré-entraînés sur des ensembles de données parfois discutables et pas toujours transparents. Biais qui existent par conception et qui sont inhérents à la technologie des calculs mathématiques à grande échelle utilisés pour rassembler les mots et en dériver une règle.
L’exemple le plus parlant est probablement le smart doctor d’une startup qui souhaitait créer un smart doctor basé sur la technologie GPT-3 (vous avez reconnu les 3 lettres courantes de ChatGPT, ce n’est pas un hasard). Après 2 conversations, ce médecin bienveillant a conseillé au patient une solution assez radicale : le suicide.
Conseils médicaux, automédication et méconnaissance du patient
Je me suis aussi intéressé à un domaine que je connais bien : la dentisterie. En fait, je travaille en binôme avec un chirurgien buccal depuis de nombreux mois sur cette question même de l’accompagnement postopératoire. Notre assistant intelligent a été formé sur des données que nous maîtrisons à partir d’échanges réels avec de vrais patients, il répond selon des processus établis avec des conseils médicalement validés. Un outil conversationnel généraliste, aussi puissant soit-il, est-il capable d’appréhender ces enjeux ?
Répondez en images avec le soutien de professionnels de santé.
Vous remarquerez rapidement que les réponses sont toujours formulées de la même manière afin de rester un peu générales. Cela s’applique dans ce cas, mais aussi pour des choses plus anodines. Lorsqu’un patient cherche des conseils rapides et faciles, ces réponses peuvent sembler très confuses et inappropriées. Mais au-delà de cela, cette réponse est pour le Dr. Jean-David Wölfeler, chirurgien bucco-dentaire et co-fondateur d’ASISPO, dangereux : « Le saignement n’est pas forcément associé à la douleur, alors que c’est le cas ici. Le conseil en ibuprofène suit généralement un diagnostic plus approfondi. De plus, en cas de processus infectieux, ce n’est pas le médicament recommandé. On sait que l’automédication est rarement une bonne idée, pourtant ChatGPT se précipite dans la brèche sans s’en rendre compte. La prescription s’inscrivant dans le cadre de l’ordonnance sur les dispositifs médicaux, un marquage CE est encore loin d’être à la portée d’OpenAI.
Pour Marilyn Michel, assistante dentaire et formatrice, « Les conseils de ChatGPT semblent assez cohérents, mais avec des problèmes comme les saignements, il faut aussi tenir compte de l’état émotionnel du patient. Une réponse purement factuelle, qui doit être lue et comprise pendant longtemps, semble inadaptée à un patient souffrant. Pour qu’un système automatisé soit un bon relais pour nos patients après une intervention au cabinet, il doit prendre en compte cette dynamique de la relation entre patient et professionnel de santé, c’est essentiel. répondre à un aspect médical problématique et formuler des conseils présente également un risque lors de l’utilisation de ce type d’outils sur des questions aussi sensibles.
Un manque de contexte, et de garantie humaine
L’algorithme de ChatGPT « a appris » sur des données générales, il essaie donc d’utiliser des chaînes assez grandes (longueur des réponses et de la phrase) pour donner à la réponse un aspect valide et vérifiable. Il semble évident que le conseil ne peut pas être personnalisé car aucune information du patient n’est prise en compte, mais des données antérieures ou un compte-rendu chirurgical peuvent donner lieu à des conseils différents ou à des alertes beaucoup plus complexes.
Afin de focaliser ce problème sur des sujets aussi sensibles que la santé, le régulateur européen a adopté et inscrit dans la loi le principe de la garantie humaine pour les systèmes d’intelligence artificielle. Concrètement, cela signifie que la traçabilité et le contrôle qualité doivent être effectués par des spécialistes durant toute la construction et l’exploitation d’un tel système d’IA.
Comment l’ensemble de données utilisé pour former l’algorithme est-il structuré ? Comment évaluez-vous les réponses dans un cas précis ? Un algorithme comme ChatGPT peut-il porter atteinte à l’intégrité de son utilisateur ?
C’est clairement indiqué en petits caractères dans la fenêtre d’échange avec ChatGPT : C’est une version à but de recherche, à ne pas remettre entre les mains de tout le monde pour faire tout et n’importe quoi. Cependant, l’excitation des millions d’utilisateurs qui ont laissé l’algorithme de génération de texte d’OpenAI au cours des 15 derniers jours semble oublier cette mise en garde.
Vous l’aurez compris, nous sommes loin d’un assistant intelligent capable de vous accompagner au quotidien, tant sur le fond que sur la forme. Si la technologie elle-même a fait des avancées sensationnelles, n’ayons pas peur des mots, les questions éthiques de l’usage des consommateurs sont plus que jamais d’actualité. Le sens d’une interaction « presque humaine » est encore plus dangereux car il brouille davantage la ligne de ce que l’on peut ou doit croire. Un sujet philosophique bien connu des amateurs de science-fiction, qu’il faut aujourd’hui prendre au sérieux pour éviter les abus.
Le contributeur :
Thomas Gouritin accompagne les PME et grands comptes dans leurs transformations, avec un accompagnement digital. En tant que producteur de la série Regards Connectés (chaîne Youtube et podcasts), il explore notre avenir technologique afin de vulgariser des sujets complexes comme l’intelligence artificielle et véhiculer des messages pragmatiques à appliquer en entreprise. Le sujet des chatbots est devenu incontournable aujourd’hui, Thomas l’aborde de manière pragmatique, en plus d’un accompagnement de projet avec des conférences pour démystifier le sujet sans « conneries » et avec des ateliers où chacun peut donner un coup de main pour comprendre, apprendre et apprendre à faire.
FrenchWeb ouvre régulièrement ses colonnes aux experts pour partager leurs expériences et bonnes pratiques.
Les contributeurs sont des rédacteurs indépendants de l’équipe éditoriale de FrenchWeb. Ses propos et ses positions lui sont personnels.
Nous ne distribuons pas de forums créés à des fins de relations publiques ou de référencement.
Pour communiquer sur FrenchWeb ou le Journal des RH pour devenir partenaire, cliquez ici.
Derniers articles des contributeurs (afficher tous)