ChatGPT diagnostique les patients aux urgences « comme un médecin humain » : étude
ChatGPT diagnostique les patients aux urgences « comme un médecin humain » : étude

chatgpt
Crédit : Unsplash/CC0 Domaine public

Le chatbot à intelligence artificielle ChatGPT a diagnostiqué les patients précipités aux urgences au moins aussi bien que les médecins et, dans certains cas, les a surpassés, ont découvert des chercheurs néerlandais, affirmant que l'IA pourrait « révolutionner le domaine médical ».

Mais le rapport publié mercredi souligne également que les médecins urgentistes n'ont pas besoin de raccrocher leurs blouses pour l'instant, le chatbot étant potentiellement capable d'accélérer le diagnostic mais ne remplace pas le jugement et l'expérience médicale humaine.

Les scientifiques ont examiné 30 cas traités dans un service d'urgence aux Pays-Bas en 2022, en fournissant à ChatGPT les antécédents anonymes des patients, les tests de laboratoire et les propres observations des médecins, en lui demandant de fournir cinq diagnostics possibles.

Ils ont ensuite comparé la liste restreinte du chatbot aux cinq mêmes diagnostics suggérés par les médecins urgentistes ayant accès aux mêmes informations, puis ont vérifié par recoupement avec le diagnostic correct dans chaque cas.

Les médecins ont posé le bon diagnostic parmi les cinq premiers dans 87 % des cas, contre 97 % pour la version 3.5 de ChatGPT et 87 % pour la version 4.0.

"En termes simples, cela indique que ChatGPT était capable de suggérer des diagnostics médicaux un peu comme le ferait un médecin humain", a déclaré Hidde ten Berg, du service de médecine d'urgence de l'hôpital Jeroen Bosch aux Pays-Bas.

Le co-auteur Steef Kurstjens a déclaré à l'AFP que l'enquête n'indiquait pas que des ordinateurs pourraient un jour faire fonctionner les urgences, mais que l'IA pouvait jouer un rôle vital en aidant les médecins sous pression.

"Le point clé est que le chatbot ne remplace pas le médecin mais il peut aider à poser un diagnostic et peut peut-être proposer des idées auxquelles le médecin n'avait pas pensé", a déclaré Kurstjens à l'AFP.

Les grands modèles de langage tels que ChatGPT ne sont pas conçus comme des dispositifs médicaux, a-t-il souligné, et l'introduction de données médicales confidentielles et sensibles dans un chatbot soulèverait également des problèmes de confidentialité.

«Bêtisiers»

Et comme dans d’autres domaines, ChatGPT a montré certaines limites.

Le raisonnement du chatbot était « parfois médicalement invraisemblable ou incohérent, ce qui peut conduire à des informations erronées ou à un diagnostic incorrect, avec des implications importantes », note le rapport.

Les scientifiques ont également admis certaines lacunes dans la recherche. La taille de l'échantillon était petite, avec 30 cas examinés. De plus, seuls des cas relativement simples ont été examinés, les patients présentant une seule plainte principale.

Il n’était pas clair dans quelle mesure le chatbot s’en sortirait dans des cas plus complexes. "L'efficacité de ChatGPT à fournir plusieurs diagnostics distincts pour les patients atteints de maladies complexes ou rares reste non vérifiée."

Parfois, le chatbot ne fournissait pas le bon diagnostic dans ses cinq principales possibilités, explique Kurstjens, notamment dans le cas d'un anévrisme abdominal, une complication potentiellement mortelle où l'artère de l'aorte enfle.

Seule consolation pour ChatGPT : dans ce cas, le médecin s’est également trompé.

Le rapport décrit ce qu'il appelle les « bêtisiers » médicaux commis par le chatbot, par exemple en diagnostiquant une anémie (faible taux d'hémoglobine dans le sang) chez un patient présentant un taux d'hémoglobine normal.

"Il est essentiel de se rappeler que ChatGPT n'est pas un dispositif médical et qu'il existe des problèmes de confidentialité lors de l'utilisation de ChatGPT avec des données médicales", a conclu Ten Berg.

"Cependant, il existe ici un potentiel de gain de temps et de réduction des temps d'attente aux urgences. L'avantage de l'utilisation de l'intelligence artificielle pourrait être de soutenir les médecins moins expérimentés, ou cela pourrait aider à détecter des maladies rares", a-t-il ajouté.

Les résultats – publiés dans la revue médicale Annales de médecine d'urgence—sera présenté au Congrès européen de médecine d'urgence (EUSEM) 2023 à Barcelone.

Plus d'information: Hidde ten Berg et al, ChatGPT et génération d'un diagnostic différentiel au début d'une présentation au service des urgences, Annales de médecine d'urgence (2023). DOI : 10.1016/j.annemergmed.2023.08.003

© 2023 AFP

Citation: ChatGPT diagnostique les patients aux urgences « comme un médecin humain » : étude (13 septembre 2023) récupérée le 14 septembre 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation équitable à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top