Trois experts expliquent pourquoi il est difficile à faire et important de bien faire
Trois experts expliquent pourquoi il est difficile à faire et important de bien faire

intelligence artificielle
Crédit : Pixabay/CC0 Domaine public

Depuis fausses photos de l'arrestation de Donald Trump par des policiers de la ville de New York à un chatbot décrivant un informaticien très vivant comme étant décédé tragiquement, la capacité de la nouvelle génération de systèmes d'intelligence artificielle générative à créer des textes et des images convaincants mais fictifs déclenche des alarmes sur la fraude et la désinformation sur les stéroïdes. En effet, un groupe de chercheurs en intelligence artificielle et de personnalités de l'industrie ont exhorté l'industrie le 29 mars 2023 à suspendre la formation continue sur les dernières technologies d'IA ou, à défaut, aux gouvernements d'"imposer un moratoire".

Ces technologies, des générateurs d'images comme DALL-E, À mi-parcours et Diffusion stableet des générateurs de texte comme Barde, ChatGPT, Chinchilla et Lama— sont désormais accessibles à des millions de personnes et ne nécessitent aucune connaissance technique pour être utilisés.

Étant donné le potentiel de dommages généralisés alors que les entreprises technologiques déploient ces systèmes d'IA et les testent sur le public, les décideurs politiques sont confrontés à la tâche de déterminer si et comment réglementer la technologie émergente. The Conversation a demandé à trois experts en politique technologique d'expliquer pourquoi la réglementation de l'IA est un tel défi et pourquoi il est si important de bien faire les choses.

Faiblesses humaines et cible mouvante

S. Shyam Sundar, professeur d'effets médiatiques et directeur, Center for Socially Responsible AI, Penn State : La raison de réglementer l'IA n'est pas parce que la technologie est hors de contrôle, mais parce que l'imagination humaine est hors de proportion. La couverture médiatique fulgurante a alimenté croyances irrationnelles sur les capacités et la conscience de l'IA. De telles croyances s'appuient sur "biais d'automatisation" ou la tendance à baisser la garde lorsque les machines exécutent une tâche. Un exemple est baisse de vigilance des pilotes lorsque leur avion vole en pilote automatique.

De nombreuses études dans mon laboratoire ont montré que lorsqu'une machine, plutôt qu'un humain, est identifiée comme source d'interaction, elle déclenche un raccourci mental dans l'esprit des utilisateurs que nous appelons un "heuristique de la machine. " Ce raccourci est la croyance que les machines sont précises, objectives, impartiales, infaillibles, etc. Il obscurcit le jugement de l'utilisateur et aboutit à ce que l'utilisateur fasse trop confiance aux machines. Cependant, il ne suffit pas de détromper les gens de l'infaillibilité de l'IA, car les humains sont connu pour assumer inconsciemment la compétence même lorsque la technologie ne le justifie pas.

La recherche a également montré que les gens traitent les ordinateurs comme des êtres sociaux lorsque les machines montrent le moindre soupçon d'humanité, comme l'utilisation du langage conversationnel. Dans ces cas, les gens appliquent des règles sociales d'interaction humaine, telles que la politesse et la réciprocité. Ainsi, lorsque les ordinateurs semblent sensibles, les gens ont tendance à leur faire confiance, aveuglément. Une réglementation est nécessaire pour garantir que les produits d'IA méritent cette confiance et ne l'exploitent pas.

L'IA pose un défi unique car, contrairement aux systèmes d'ingénierie traditionnels, les concepteurs ne peuvent pas être sûrs du comportement des systèmes d'IA. Lorsqu'une automobile traditionnelle sortait de l'usine, les ingénieurs savaient exactement comment elle fonctionnerait. Mais avec les voitures autonomes, les ingénieurs ne peut jamais être sûr de ses performances dans des situations nouvelles.

Dernièrement, des milliers de personnes à travers le monde se sont émerveillées de ce que les grands modèles d'IA génératifs comme GPT-4 et DALL-E 2 produisent en réponse à leurs invites. Aucun des ingénieurs impliqués dans le développement de ces modèles d'IA n'a pu vous dire exactement ce que les modèles produiront. Pour compliquer les choses, ces modèles changent et évoluent avec de plus en plus d'interactions.

Tout cela signifie qu'il y a beaucoup de potentiel de ratés. Par conséquent, beaucoup dépend de la manière dont les systèmes d'IA sont déployés et des dispositions de recours en place lorsque la sensibilité ou le bien-être humain est blessé. L'IA est plus une infrastructure, comme une autoroute. Vous pouvez le concevoir pour façonner les comportements humains dans le collectif, mais vous aurez besoin de mécanismes pour lutter contre les abus, tels que les excès de vitesse, et les événements imprévisibles, comme les accidents.

Les développeurs d'IA devront également faire preuve d'une créativité démesurée en envisageant les manières dont le système pourrait se comporter et essayer d'anticiper les violations potentielles des normes et des responsabilités sociales. Cela signifie qu'il est nécessaire de disposer de cadres réglementaires ou de gouvernance qui reposent sur des audits périodiques et sur le contrôle des résultats et des produits de l'IA, bien que je pense que ces cadres devraient également reconnaître que les concepteurs des systèmes ne peuvent pas toujours être tenus responsables des incidents.

Combiner les approches « douces » et « dures »

Cason Schmit, professeur adjoint de santé publique, Texas A&M University : Réglementer l'IA est délicat. Pour bien réglementer l'IA, vous devez d'abord définir l'IA et comprendre les risques et les avantages anticipés de l'IA. Il est important de définir juridiquement l'IA pour identifier ce qui est soumis à la loi. Mais les technologies d'IA évoluent encore, il est donc difficile d'établir une définition juridique stable.

Il est également important de comprendre les risques et les avantages de l'IA. Une bonne réglementation devrait maximiser les avantages publics tout en minimiser les risques. Cependant, les applications d'IA émergent encore, il est donc difficile de savoir ou de prédire quels pourraient être les risques ou les avantages futurs. Ces types d'inconnues rendent les technologies émergentes comme l'IA extrêmement difficile à réguler avec les lois et règlements traditionnels.

Les législateurs sont souvent trop lent à s'adapter à l'environnement technologique en évolution rapide. Quelques nouvelles lois sont obsolètes au moment où ils sont promulgués ou même introduit. Sans nouvelles lois, les régulateurs doivent utiliser les anciennes lois Adresser de nouveaux problèmes. Cela conduit parfois à barrières juridiques pour avantages sociaux ou vides juridiques pour conduite préjudiciable.

"Lois douces" sont l'alternative aux approches traditionnelles de "loi dure" de la législation visant à prévenir des violations spécifiques. Dans l'approche de la soft law, une organisation privée met en place règles ou normes pour les membres de l'industrie. Celles-ci peuvent changer plus rapidement que la législation traditionnelle. Cela fait lois douces prometteuses pour les technologies émergentes car elles peuvent s'adapter rapidement aux nouvelles applications et aux nouveaux risques. Cependant, des lois douces peuvent signifier une application douce.

Megan Doer, Jennifer Wagner et je proposer une troisième voie : Copyleft AI avec application de confiance (CAITE). Cette approche combine deux concepts très différents en matière de propriété intellectuelle : les licences de copyleft et les trolls de brevets.

Les licences de copyleft permettent au contenu d'être utilisé, réutilisé ou modifié facilement selon les termes d'une licence, par exemple, un logiciel open source. Le modèle CAITE utilise des licences de copyleft pour obliger les utilisateurs d'IA à suivre des directives éthiques spécifiques, telles que des évaluations transparentes de l'impact des préjugés.

Dans notre modèle, ces licences transfèrent également le droit légal d'appliquer les violations de licence à un tiers de confiance. Cela crée une entité d'application qui existe uniquement pour faire respecter les normes éthiques de l'IA et peut être financée en partie par des amendes pour conduite contraire à l'éthique. Cette entité est comme un troll des brevets en ce sens qu'elle est privée plutôt que gouvernementale et qu'elle se soutient en faisant respecter les droits légaux de propriété intellectuelle qu'elle collecte auprès des autres. Dans ce cas, plutôt que de faire appliquer les règles à des fins lucratives, l'entité applique les directives éthiques définies dans les licences - un « troll pour le bien ».

Bien que l'IA générative fasse la une des journaux ces derniers temps, d'autres types d'IA posent des défis aux régulateurs depuis des années, en particulier dans le domaine de la confidentialité des données.

Ce modèle est flexible et adaptable pour répondre aux besoins d'un environnement d'IA en évolution. Il permet également des options d'application substantielles comme un régulateur gouvernemental traditionnel. De cette façon, il combine les meilleurs éléments des approches de droit dur et souple pour relever les défis uniques de l'IA.

Quatre questions clés à se poser

John Villasenor, professeur de génie électrique, de droit, de politique publique et de gestion, Université de Californie, Los Angeles : The avancées récentes extraordinaires dans un grand langage, l'IA générative basée sur des modèles suscite des appels à la création d'une nouvelle réglementation spécifique à l'IA. Voici quatre questions clés à poser au fur et à mesure que le dialogue progresse :

(1) Une nouvelle réglementation spécifique à l'IA est-elle nécessaire ? Bon nombre des résultats potentiellement problématiques des systèmes d'IA sont déjà pris en compte par les cadres existants. Si un algorithme d'intelligence artificielle utilisé par une banque pour évaluer les demandes de prêt conduisait à des décisions de prêt discriminatoires sur le plan racial, cela violerait la loi sur le logement équitable. Si le logiciel d'intelligence artificielle d'une voiture sans conducteur provoque un accident, la loi sur la responsabilité du fait des produits prévoit une cadre de recours.

(2) Quels sont les risques de réglementer une technologie en évolution rapide sur la base d'un instantané du temps ? Un exemple classique en est le Loi sur les communications stockées, qui a été promulguée en 1986 pour aborder les nouvelles technologies de communication numérique comme le courrier électronique. En promulguant la SCA, le Congrès a considérablement réduit la protection de la vie privée des e-mails datant de plus de 180 jours.

La logique était que l'espace de stockage limité signifiait que les gens nettoyaient constamment leurs boîtes de réception en supprimant les anciens messages pour faire de la place aux nouveaux. Par conséquent, les messages stockés pendant plus de 180 jours ont été jugés moins importants du point de vue de la confidentialité. Il n'est pas clair que cette logique ait jamais eu de sens, et cela n'a certainement pas de sens dans les années 2020, lorsque la majorité de nos e-mails et autres communications numériques stockées datent de plus de six mois.

Une réponse courante aux préoccupations concernant la réglementation de la technologie basée sur un seul instantané dans le temps est la suivante : si une loi ou un règlement devient obsolète, mettez-le à jour. Mais c'est plus facile à dire qu'à faire. La plupart des gens conviennent que la SCA est devenue obsolète il y a des décennies. Mais parce que le Congrès n'a pas été en mesure de s'entendre sur la façon précise de réviser la disposition de 180 jours, elle est toujours dans les livres plus d'un tiers de siècle après sa promulgation.

(3) Quelles sont les conséquences involontaires potentielles ? Le Autoriser les États et les victimes à lutter contre la loi de 2017 sur le trafic sexuel en ligne était une loi adoptée en 2018 qui révisait Article 230 de la Communications Decency Act dans le but de lutter contre le trafic sexuel. Bien qu'il y ait peu de preuves qu'il a réduit le trafic sexuel, il a eu un impact extrêmement problématique sur un autre groupe de personnes : les travailleuses du sexe qui s'appuyaient sur les sites Web mis hors ligne par FOSTA-SESTA pour échanger des informations sur des clients dangereux. Cet exemple montre l'importance d'avoir une vue d'ensemble des effets potentiels des réglementations proposées.

(4) Quelles sont les implications économiques et géopolitiques ? Si les régulateurs aux États-Unis agissent pour ralentir intentionnellement les progrès de l'IA, cela ne fera que pousser l'investissement et l'innovation - et la création d'emplois qui en résulte - ailleurs. Bien que l'IA émergente suscite de nombreuses inquiétudes, elle promet également d'apporter d'énormes avantages dans des domaines tels que l'éducation, médecinefabrication, la sécurité des transportsl'agriculture, les prévisions météorologiques, l'accès aux services juridiques et plus encore.

Je pense que les réglementations sur l'IA rédigées en gardant à l'esprit les quatre questions ci-dessus seront plus susceptibles de traiter avec succès les méfaits potentiels de l'IA tout en garantissant l'accès à ses avantages.

Fourni par La Conversation

Cet article est republié de La conversation sous licence Creative Commons. Lis le article original.La conversation

Citation: Réglementer l'IA : trois experts expliquent pourquoi il est difficile de faire et important de bien faire (2023, 12 avril) récupéré le 13 avril 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top