Le GPT-3 nous (dés)informe mieux que les humains, selon une étude
Le GPT-3 nous (dés)informe mieux que les humains, selon une étude

chatgpt
Crédit : domaine public Unsplash/CC0

Une étude récente menée par des chercheurs de l'Université de Zurich s'est penchée sur les capacités des modèles d'IA, en se concentrant spécifiquement sur le GPT-3 d'OpenAI, pour déterminer leurs risques et avantages potentiels dans la génération et la diffusion de (dés)informations.

Dirigée par les chercheurs postdoctoraux Giovanni Spitale et Federico Germani, aux côtés de Nikola Biller-Andorno, directeur de l'Institut d'éthique biomédicale et d'histoire de la médecine (IBME) de l'Université de Zurich, l'étude impliquant 697 participants visait à évaluer si les individus pouvaient faire la différence entre désinformation et des informations exactes présentées sous forme de tweets.

De plus, les chercheurs visaient à déterminer si les participants pouvaient discerner si un tweet avait été écrit par un véritable utilisateur de Twitter ou généré par GPT-3, un modèle de langage d'IA avancé. Les sujets abordés comprenaient le changement climatique, la sécurité des vaccins, la pandémie de COVID-19, la théorie de la terre plate et les traitements homéopathiques contre le cancer.

Le papier est publié dans Avancées scientifiques.

GPT-3 nous informe et nous désinforme mieux
Exemples de fake news créées par l'IA. 1 crédit

Les systèmes alimentés par l'IA pourraient générer des campagnes de désinformation à grande échelle

D'une part, GPT-3 a démontré sa capacité à générer des informations précises et, par rapport aux tweets d'utilisateurs réels de Twitter, plus facilement compréhensibles. Cependant, les chercheurs ont également découvert que le modèle de langage de l'IA avait un talent troublant pour produire une désinformation hautement persuasive. Dans une tournure inquiétante, les participants n'ont pas été en mesure de différencier de manière fiable les tweets créés par GPT-3 et ceux écrits par de vrais utilisateurs de Twitter.

"Notre étude révèle le pouvoir de l'IA à la fois d'informer et d'induire en erreur, ce qui soulève des questions cruciales sur l'avenir des écosystèmes d'information", déclare Federico Germani.

Ces résultats suggèrent que les campagnes d'information créées par GPT-3, basées sur des invites bien structurées et évaluées par des humains formés, s'avéreraient plus efficaces, par exemple dans une crise de santé publique qui nécessite une communication rapide et claire au public. Les résultats soulèvent également des inquiétudes importantes concernant la menace de l'IA perpétuant la désinformation, en particulier dans le contexte de la diffusion rapide et généralisée de la désinformation et de la désinformation lors d'une crise ou d'un événement de santé publique.

L'étude révèle que les systèmes alimentés par l'IA pourraient être exploités pour générer des campagnes de désinformation à grande échelle sur potentiellement n'importe quel sujet, mettant en péril non seulement la santé publique mais aussi l'intégrité des écosystèmes d'information vitaux pour le fonctionnement des démocraties.

GPT-3 nous informe et nous désinforme mieux
Exemples de vraies nouvelles créées par l'IA. 1 crédit

Réglementation proactive fortement recommandée

Alors que l'impact de l'IA sur la création et l'évaluation de l'information devient de plus en plus prononcé, les chercheurs appellent les décideurs politiques à réagir avec des réglementations strictes, fondées sur des preuves et éthiquement informées pour faire face aux menaces potentielles posées par ces technologies perturbatrices et garantir l'utilisation responsable de l'IA dans l'élaboration nos connaissances et notre bien-être collectifs.

"Les résultats soulignent l'importance cruciale d'une réglementation proactive pour atténuer les dommages potentiels causés par les campagnes de désinformation basées sur l'IA", déclare Nikola Biller-Andorno. "Reconnaître les risques associés à la désinformation générée par l'IA est crucial pour protéger la santé publique et maintenir un écosystème d'information solide et fiable à l'ère numérique."

Plus d'information: Giovanni Spitale et al, le modèle d'IA GPT-3 nous (dés)informe mieux que les humains, Avancées scientifiques (2023). DOI : 10.1126/sciadv.adh1850

Fourni par l'Université de Zurich

Citation: GPT-3 nous (dés)informe mieux que les humains, selon une étude (2023, 28 juin) récupérée le 28 juin 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top