OpenAI a lancé un outil de détection de texte généré à l'aide de services comme le sien ChatGPT.
Les modèles d'IA générative utilisés pour des services comme ChatGPT ont soulevé de nombreuses questions sociétales et éthiques : pourraient-ils être utilisés pour générer de la désinformation à une échelle sans précédent ? Et si les élèves trichent en les utilisant ? Une IA doit-elle être créditée lorsque des extraits sont utilisés pour des articles ou des articles ?
UN papier (PDF) du Centre sur le terrorisme, l'extrémisme et le contre-terrorisme de l'Institut d'études internationales de Middlebury a même découvert que le GPT-3 est capable de générer un texte « influent » susceptible de radicaliser les gens vers des idéologies d'extrême droite.
OpenAI a été fondée pour promouvoir et développer une "IA conviviale" qui profite à l'humanité. En tant que créateur de puissants modèles d'IA générative comme GPT et DALL-E, OpenAI a la responsabilité de s'assurer que ses créations ont des garanties en place pour empêcher - ou du moins minimiser - leur utilisation à des fins nuisibles.
Le nouvel outil lancé cette semaine prétend être capable de distinguer le texte écrit par un humain de celui d'une IA (pas seulement GPT). Cependant, OpenAI met en garde qu'il n'est actuellement pas fiable.
Sur un ensemble de textes en anglais, OpenAI affirme que son outil n'identifie que 26% des textes écrits par l'IA comme "probablement écrits par l'IA". L'outil classe à tort le texte écrit par l'homme environ neuf pour cent du temps.
"Bien qu'il soit impossible de détecter de manière fiable tout le texte écrit par l'IA, nous pensons que de bons classificateurs peuvent éclairer les atténuations des fausses allégations selon lesquelles le texte généré par l'IA a été écrit par un humain : par exemple, lancer des campagnes de désinformation automatisées, utiliser des outils d'IA pour la malhonnêteté académique, et positionner un chatbot IA en tant qu'humain », explique OpenAI.
"[The tool] ne doit pas être utilisé comme un outil de prise de décision principal, mais plutôt comme un complément à d'autres méthodes pour déterminer la source d'un morceau de texte.
Les autres principales limites de l'outil sont qu'il est "très peu fiable" sur des textes courts de moins de 1 000 caractères et qu'il est "nettement pire" lorsqu'il est appliqué à des textes non anglais.
OpenAI fournissait à l'origine l'accès à GPT à un petit nombre de chercheurs et de développeurs de confiance. Alors qu'il développait des garanties plus solides, une liste d'attente a ensuite été introduite. La liste d'attente a été supprimée en novembre 2021, mais le travail d'amélioration de la sécurité est un processus continu.
"Pour garantir que les applications basées sur l'API sont construites de manière responsable, nous fournissons des outils et aidons les développeurs à utiliser les meilleures pratiques afin qu'ils puissent mettre leurs applications en production rapidement et en toute sécurité", a écrit OpenAI dans un article de blog.
"Au fur et à mesure que nos systèmes évoluent et que nous travaillons pour améliorer les capacités de nos protections, nous prévoyons de continuer à rationaliser le processus pour les développeurs, à affiner nos directives d'utilisation et à permettre encore plus de cas d'utilisation au fil du temps."
OpenAI a récemment partagé son point de vue selon lequel il y a trop de battage médiatique autour de la prochaine version majeure de GPT, GPT-4, et que les gens « supplient d'être déçus ». Il croit également qu'un modèle de génération de vidéo viendra, mais ne mettra pas de délai sur quand.
Les vidéos qui ont été manipulées avec la technologie de l'IA, également connues sous le nom de deepfakes, s'avèrent déjà problématiques. Les gens sont facilement convaincus par ce qu'ils pense ils peuvent voir.
Nous avons vu des deepfakes de personnalités comme le fondateur en disgrâce de FTX, Sam Bankman-Fried commettre une fraudele président ukrainien Volodymyr Zelenskyy à désinformer et la présidente de la Chambre des États-Unis, Nancy Pelosi diffamer et la faire paraître ivre.
OpenAI fait ce qu'il faut en prenant son temps pour minimiser les risques, en gardant les attentes sous contrôle et en créant des outils pour découvrir le contenu qui prétend à tort avoir été créé par un humain.
Vous pouvez tester l'outil de travail en cours d'OpenAI pour détecter le texte généré par l'IA ici. Une alternative appelée 'DetectGPT' est en cours de création par des chercheurs de l'Université de Stanford et est disponible pour une démonstration ici.
(Photo par Shane Aldendorff au Unsplash)
Lié: OpenAI ouvre une liste d'attente pour la version payante de ChatGPT
Vous voulez en savoir plus sur l'IA et le Big Data auprès des leaders de l'industrie ? Vérifier Salon de l'IA et du Big Data se déroulant à Amsterdam, en Californie et à Londres.
Découvrez d'autres événements et webinaires technologiques d'entreprise à venir propulsés par TechForge ici.
Source