Musk et des scientifiques appellent à l’arrêt de la course à l’IA déclenchée par ChatGPT
Musk et des scientifiques appellent à l’arrêt de la course à l’IA déclenchée par ChatGPT

Musk et des scientifiques appellent à l'arrêt de la course à l'IA déclenchée par ChatGPT
Le logo OpenAI est visible sur un téléphone portable devant un écran d'ordinateur affichant la sortie de ChatGPT, le mardi 21 mars 2023, à Boston. Les entreprises technologiques vont-elles trop vite dans le déploiement d'une puissante technologie d'intelligence artificielle qui pourrait un jour déjouer les humains ? C'est la conclusion d'un groupe d'éminents informaticiens et autres notables de l'industrie technologique qui appellent à une pause de 6 mois pour examiner les risques. Leur pétition publiée le mercredi 29 mars 2023 est une réponse à la récente publication de GPT-4 par la startup de San Francisco OpenAI. Crédit : AP Photo/Michael Dwyer, Fichier

Les entreprises technologiques vont-elles trop vite dans le déploiement d'une puissante technologie d'intelligence artificielle qui pourrait un jour déjouer les humains ?

C'est la conclusion d'un groupe d'éminents informaticiens et d'autres notables de l'industrie technologique tels qu'Elon Musk et le co-fondateur d'Apple, Steve Wozniak, qui appellent à une pause de 6 mois pour examiner les risques.

Leur pétition publiée mercredi est une réponse à la récente publication par la startup de San Francisco OpenAI de GPT-4, un successeur plus avancé de son chatbot IA largement utilisé ChatGPT qui a contribué à déclencher une course entre les géants de la technologie Microsoft et Google pour dévoiler des applications similaires.

QU'EST-CE-QU'ILS DISENT?

La lettre avertit que les systèmes d'IA avec "l'intelligence compétitive humaine peuvent présenter des risques profonds pour la société et l'humanité" - d'inonder Internet de désinformation et d'automatiser les emplois à des risques futurs plus catastrophiques hors du domaine de la science-fiction.

Il indique que "ces derniers mois ont vu les laboratoires d'IA enfermés dans une course incontrôlable pour développer et déployer des esprits numériques toujours plus puissants que personne, pas même leurs créateurs, ne peut comprendre, prédire ou contrôler de manière fiable".

"Nous appelons tous les laboratoires d'IA à suspendre immédiatement pendant au moins 6 mois la formation des systèmes d'IA plus puissants que GPT-4", indique la lettre. "Cette pause doit être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut pas être promulguée rapidement, les gouvernements doivent intervenir et instituer un moratoire."

Un certain nombre de gouvernements travaillent déjà à réglementer les outils d'IA à haut risque. Le Royaume-Uni a publié mercredi un document décrivant son approche, qui, selon lui, "évitera une législation lourde qui pourrait étouffer l'innovation". Les législateurs de l'Union européenne des 27 pays ont négocié l'adoption de règles radicales sur l'IA.

QUI L'A SIGNÉ ?

La pétition a été organisée par l'Institut à but non lucratif Future of Life, qui indique que les signataires confirmés incluent le pionnier de l'IA lauréat du prix Turing Yoshua Bengio et d'autres chercheurs de premier plan en IA tels que Stuart Russell et Gary Marcus. Wozniak, l'ancien candidat à la présidentielle américaine Andrew Yang et Rachel Bronson, présidente du Bulletin of the Atomic Scientists, un groupe de défense à vocation scientifique connu pour ses avertissements contre la guerre nucléaire mettant fin à l'humanité, ont également rejoint Wozniak.

Musk, qui dirige Tesla, Twitter et SpaceX et a été co-fondateur d'OpenAI et premier investisseur, a longtemps exprimé ses inquiétudes concernant les risques existentiels de l'IA. Une inclusion plus surprenante est Emad Mostaque, PDG de Stability AI, fabricant du générateur d'images AI Stable Diffusion qui s'associe à Amazon et est en concurrence avec le générateur similaire d'OpenAI connu sous le nom de DALL-E.

QUELLE EST LA RÉPONSE ?

OpenAI, Microsoft et Google n'ont pas répondu aux demandes de commentaires mercredi, mais la lettre a déjà beaucoup de sceptiques.

"Une pause est une bonne idée, mais la lettre est vague et ne prend pas au sérieux les problèmes de réglementation", déclare James Grimmelmann, professeur de droit numérique et de l'information à l'Université Cornell. "Il est également profondément hypocrite pour Elon Musk de signer étant donné à quel point Tesla s'est battu contre la responsabilité de l'IA défectueuse dans ses voitures autonomes."

EST-CE QUE C'EST DE L'HYSTÉRIE IA ?

Bien que la lettre soulève le spectre d'une IA infâme bien plus intelligente que ce qui existe réellement, ce n'est pas l'IA "surhumaine" qui inquiète certains de ceux qui se sont inscrits. Bien qu'impressionnant, un outil tel que ChatGPT est simplement un générateur de texte qui fait des prédictions sur les mots qui répondraient à l'invite qui lui a été donnée en fonction de ce qu'il a appris en ingérant d'énormes quantités d'œuvres écrites.

Gary Marcus, un professeur émérite de l'Université de New York qui a signé la lettre, a déclaré dans un article de blog qu'il n'était pas d'accord avec d'autres qui s'inquiètent de la perspective à court terme de machines intelligentes si intelligentes qu'elles peuvent s'auto-améliorer au-delà du contrôle de l'humanité. Ce qui l'inquiète le plus, c'est "l'IA médiocre" qui est largement déployée, y compris par des criminels ou des terroristes pour tromper les gens ou diffuser de fausses informations dangereuses.

"La technologie actuelle pose déjà d'énormes risques auxquels nous sommes mal préparés", a écrit Marcus. "Avec la technologie future, les choses pourraient bien empirer."

© 2023 L'Associated Press. Tous les droits sont réservés. Ce matériel ne peut être publié, diffusé, réécrit ou redistribué sans autorisation.

Citation: Musk, les scientifiques appellent à l'arrêt de la course à l'IA déclenchée par ChatGPT (2023, 29 mars) récupéré le 30 mars 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top