Fondons les débats sur l’IA sur la réalité, et non sur des craintes extrêmes quant à l’avenir
Fondons les débats sur l’IA sur la réalité, et non sur des craintes extrêmes quant à l’avenir

Fondons les débats sur l'IA sur la réalité, et non sur des craintes extrêmes quant à l'avenir
Un groupe d'éminents informaticiens et d'autres notables de l'industrie technologique appellent à une pause de six mois sur la technologie de l'intelligence artificielle. Crédit : Shutterstock

Une récente lettre ouverte d'informaticiens et de leaders de l'industrie technologique appelant à une interdiction de six mois du développement de l'intelligence artificielle a a reçu une large attention en ligne. Même le ministre canadien de l'Innovation, François-Philippe Champagne a répondu à la lettre sur Twitter.

La lettre, publiée par l'Institut à but non lucratif Future of Life, a demandé à tous les laboratoires d'IA d'arrêter de former des systèmes d'IA plus puissants que GPT-4, le modèle derrière ChatGPT. La lettre soutient que l'IA a été "enfermée dans une course incontrôlable pour développer et déployer des esprits numériques toujours plus puissants que personne, pas même leurs créateurs, ne peut comprendre, prédire ou contrôler de manière fiable".

La lettre suppose que l'IA devient, ou pourrait devenir, de "puissants esprits numériques" - un interprétation longtermiste du développement de l'IA ce ignore les débats importants sur l'IA aujourd'hui au lieu des préoccupations futures.

Longtermisme et IA

Le long-termisme est le croyance que l'intelligence artificielle pose des risques à long terme ou existentiels pour l'avenir de l'humanité en devenant une superintelligence incontrôlable.

Les inquiétudes concernant les IA superintelligentes relèvent généralement de la science-fiction. Fantasmes d'IA sont l'une des nombreuses craintes dans la Silicon Valley qui peut conduire à sombres prophéties. Mais comme le Mème Tourment Nexus, ces inquiétudes se traduisent par des investissements importants et non par la prudence. La plupart des grandes entreprises technologiques ont couper leurs équipes d'IA responsables.

ChatGPT n'est évidemment pas un chemin vers la superintelligence. La lettre ouverte considère la technologie du langage de l'IA comme ChatGPT comme une percée cognitive, quelque chose qui permet à une IA de rivaliser avec les humains dans des tâches générales. Mais ce n'est qu'un avis.

Il y en a beaucoup d'autres qui voient ChatGPT, son modèle GPT-4 et d'autres modèles d'apprentissage des langues comme "perroquets stochastiques" qui ne font que répéter ce qu'ils apprennent en ligne pour apparaître intelligents aux yeux des humains.

Les angles morts de la superintelligence

Le long terme a des implications politiques directes qui donnent la priorité à la superintelligence sur des questions plus urgentes telles que Les déséquilibres de pouvoir de l'IA. Certains partisans du long-termisme considèrent même qu'il est plus urgent de réglementer pour arrêter la superintelligence que de faire face à l'urgence climatique.

Les implications politiques en matière d'IA sont immédiates, pas très éloignées. Parce que GPT-4 est formé sur l'ensemble d'Internet et a des fins expressément commerciales, cela soulève des questions sur l'utilisation équitable et l'utilisation équitable.

Nous ne savons toujours pas si les textes et les images générés par l'IA sont protégés par le droit d'auteur.puisque les machines et animaux ne peut pas détenir le droit d'auteur.

Et en ce qui concerne les questions de confidentialité, l'approche de ChatGPT est difficile à distinguer d'une autre application d'IA, IA Clearview. Les deux modèles d'IA ont été formés à l'aide d'énormes quantités d'informations personnelles collectées sur Internet ouvert. L'autorité italienne de protection des données vient d'interdire ChatGPT pour des raisons de confidentialité.

Ces risques immédiats ne sont pas mentionnés dans la lettre ouverte, qui oscille entre philosophie sauvage et solutions techniques, ignorant les problèmes qui sont devant nous.

Noyer le pragmatisme

La lettre suit une vieille dynamique que mon co-auteur et moi identifions dans un prochain chapitre évalué par des pairs sur la gouvernance de l'IA. Il y a une tendance à considérer l'IA soit comme un risque existentiel, soit comme quelque chose de banal et de technique.

La tension entre ces deux extrêmes est exposée dans la lettre ouverte. La lettre commence par affirmer que "l'IA avancée pourrait représenter un changement profond dans l'histoire de la vie sur Terre" avant d'appeler à "un financement public solide pour la recherche technique sur la sécurité de l'IA". Ce dernier suggère que les méfaits sociaux de l'IA ne sont que des projets techniques à résoudre.

L'accent mis sur ces deux extrêmes évince les voix importantes qui tentent de discuter de manière pragmatique des risques immédiats de l'IA mentionnés ci-dessus ainsi que problèmes de main-d'œuvre et autres.

L'attention portée à la lettre ouverte est particulièrement problématique au Canada parce que deux autres lettres, écrites par artistes et organisations des libertés civiles, n'ont pas reçu la même attention. Ces lettres appellent à des réformes et à une approche plus robuste de la gouvernance de l'IA pour protéger ceux qui en sont affectés.

Une distraction inutile vers la législation sur l'IA

Les réponses du gouvernement à la lettre ouverte ont souligné que le Canada a une législation...la loi sur l'intelligence artificielle et les données (AIDA). Les risques à long terme de l'IA sont utilisés pour précipiter une législation comme AIDA.

L'ACRA est une étape importante vers un régime de gouvernance de l'IA approprié, mais il doit mieux consulter les personnes touchées par l'IA avant d'être mis en œuvre. Il ne faut pas se précipiter pour répondre aux craintes perçues à long terme.

Les appels de la lettre à accélérer la législation sur l'IA pourraient finir par profiter aux mêmes quelques entreprises qui mènent aujourd'hui la recherche sur l'IA. Sans le temps de consulter, d'améliorer la littératie du public et d'écouter ceux qui sont touchés par l'IA, AIDA risque de transmettre la responsabilité et l'audit de l'IA à des institutions déjà bien placées pour bénéficier de la technologie, créant ainsi un marché pour une nouvelle industrie de l'audit de l'IA.

Le sort de l'humanité n'est peut-être pas en jeu, mais la bonne gouvernance de l'IA l'est certainement.

Fourni par La Conversation

Cet article est republié de La conversation sous licence Creative Commons. Lis le article original.La conversation

Citation: Opinion : basons les débats sur l'IA sur la réalité, et non sur des craintes extrêmes concernant l'avenir (2023, 4 avril) récupéré le 4 avril 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top