Les spécialistes des sciences sociales expliquent pourquoi le public a besoin d’une place à la table
Les spécialistes des sciences sociales expliquent pourquoi le public a besoin d’une place à la table

Chatbot IA
Crédit : Pixabay/CC0 Domaine public

Les sociétés démocratiques sont-elles prêtes pour un avenir dans lequel l’IA attribue algorithmiquement des fournitures limitées de respirateurs ou de lits d’hôpitaux pendant les pandémies ? Ou celui dans lequel L’IA alimente une course aux armements entre la création et la détection de la désinformation ? Ou influencer les décisions des tribunaux avec des mémoires d'amicus rédigés pour imiter les styles rhétorique et argumentatif des juges de la Cour suprême ?

Des décennies de recherche montrent que la plupart des sociétés démocratiques avoir du mal à tenir des débats nuancés sur les nouvelles technologies. Ces discussions doivent être éclairées non seulement par les meilleures données scientifiques disponibles, mais également par les nombreuses considérations éthiques, réglementaires et sociales liées à leur utilisation. Les dilemmes difficiles posés par l’intelligence artificielle émergent déjà à un rythme qui dépasse la capacité des démocraties modernes à résoudre collectivement ces problèmes.

Un large engagement du public, ou son absence, constitue un défi de longue date dans l’assimilation des technologies émergentes et est essentiel pour relever les défis qu’elles entraînent.

Prêt ou pas, conséquences inattendues

Trouver un équilibre entre les possibilités impressionnantes des technologies émergentes comme l’IA et la nécessité pour les sociétés de réfléchir à la fois aux résultats attendus et imprévus n’est pas un défi nouveau. Il y a près de 50 ans, des scientifiques et des décideurs politiques se sont rencontrés à Pacific Grove, en Californie, pour ce que l'on appelle souvent la Conférence d'Asilomar pour décider de l'avenir de la recherche sur l'ADN recombinant ou de la transplantation de gènes d'un organisme dans un autre. La participation et la participation du public à leurs délibérations étaient minimes.

Les sociétés sont gravement limitées dans leur capacité à anticiper et à atténuer les conséquences involontaires de technologies émergentes rapidement comme l’IA sans l’engagement de bonne foi d’un large éventail de parties prenantes du public et d’experts. Et une participation limitée présente de réels inconvénients. Si Asilomar avait sollicité une contribution aussi large il y a 50 ans, il est probable que les questions de coût et d’accès auraient partagé l’agenda avec la science et l’éthique du déploiement de la technologie. Si cela était arrivé, le manque d'abordabilité de récent Drépanocytose basée sur CRISPR les traitements, par exemple, auraient pu être évités.

L’IA court un risque très réel de créer des angles morts similaires en ce qui concerne les conséquences intentionnelles et involontaires qui ne seront souvent pas évidentes pour les élites telles que les dirigeants technologiques et les décideurs politiques. Si les sociétés ne parviennent pas à poser « les bonnes questions, celles qui intéressent les gens », estime un spécialiste des études scientifiques et technologiques Sheila Jasanoff a déclaré dans une interview en 2021"alors peu importe ce que dit la science, vous ne produiriez pas les bonnes réponses ou options pour la société."

Les débats éthiques devraient être au cœur des efforts visant à réglementer l’IA.

Même les experts en IA s’inquiètent du manque de préparation des sociétés à faire progresser la technologie de manière responsable. Nous étudier le public et aspects politiques de la science émergente. En 2022, notre groupe de recherche de l'Université du Wisconsin-Madison interrogé près de 2 200 chercheurs qui avait publié sur le thème de l'IA. Neuf personnes sur 10 (90,3 %) prédisent que les applications de l’IA auront des conséquences imprévues, et trois sur quatre (75,9 %) ne pensent pas que la société soit préparée aux effets potentiels des applications de l’IA.

Qui a son mot à dire sur l’IA ?

Les dirigeants de l’industrie, les décideurs politiques et les universitaires ont mis du temps à s’adapter à l’apparition rapide de puissantes technologies d’IA. En 2017, des chercheurs et des universitaires se sont réunis à Pacific Grove pour une autre petite réunion réservée aux experts, cette fois pour décrire principes pour la future recherche sur l’IA. Le sénateur Chuck Schumer envisage de tenir la première d'une série de Forums d'analyse de l'IA le 13 septembre 2023, pour aider les décideurs politiques de Beltway à réfléchir aux risques liés à l'IA avec des leaders technologiques comme Mark Zuckerberg de Meta et Elon Musk de X.

Pendant ce temps, le public a soif de contribuer à façonner notre avenir collectif. Seul environ un quart des adultes américains interrogés dans notre enquête sur l'IA de 2020 conviennent que les scientifiques devraient pouvoir « mener leurs recherches sans consulter le public » (27,8 %). Les deux tiers (64,6 %) estiment que « le public devrait avoir son mot à dire sur la manière dont nous appliquons la recherche scientifique et la technologie dans la société ».

Le désir de participation du public va de pair avec un manque généralisé de confiance dans le gouvernement et l’industrie lorsqu’il s’agit de façonner le développement de l’IA. Dans un Enquête nationale 2020 Selon notre équipe, moins d'un Américain sur 10 a indiqué qu'il faisait « plutôt » ou « beaucoup » confiance au Congrès (8,5 %) ou à Facebook (9,5 %) pour garder à l'esprit le meilleur intérêt de la société dans le développement de l'IA.

Le biais algorithmique n’est qu’une des préoccupations liées à l’intelligence artificielle.

Une bonne dose de scepticisme ?

La profonde méfiance du public à l'égard des principaux acteurs de la réglementation et de l'industrie n'est pas totalement injustifiée. Les leaders de l’industrie ont eu du mal démêler leurs intérêts commerciaux des efforts visant à développer un système de réglementation efficace pour l’IA. Cela a conduit à un environnement politique fondamentalement désordonné.

Les entreprises technologiques qui aident les régulateurs à réfléchir au potentiel et à la complexité de technologies telles que l’IA ne posent pas toujours de problèmes, surtout si elles font preuve de transparence quant aux conflits d’intérêts potentiels. Cependant, la contribution des leaders technologiques aux questions techniques sur l’utilisation possible de l’IA ne constitue qu’une petite pièce du puzzle réglementaire.

De manière bien plus urgente, les sociétés doivent déterminer pour quels types d’applications l’IA devrait être utilisée et comment. Les réponses à ces questions ne peuvent émerger que de débats publics qui impliquer un large éventail de parties prenantes sur les valeurs, l'éthique et l'équité. Pendant ce temps, le public est de plus en plus préoccupé sur l’utilisation de l’IA.

L’IA ne va peut-être pas anéantir l’humanité de sitôt, mais elle risque de perturber de plus en plus la vie telle que nous la connaissons actuellement. Les sociétés disposent d’une fenêtre d’opportunité limitée pour trouver des moyens de s’engager dans des débats de bonne foi et de travailler en collaboration à une réglementation significative de l’IA afin de s’assurer que ces défis ne les submergent pas.

Fourni par La conversation

Cet article est republié à partir de La conversation sous licence Creative Commons. Lis le article original.La conversation Cet article est republié à partir de La conversation sous licence Creative Commons. Lis le article original.La conversation

Citation: Les experts seuls ne peuvent pas gérer l'IA : les spécialistes des sciences sociales expliquent pourquoi le public a besoin d'une place à la table (6 septembre 2023) récupéré le 6 septembre 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation équitable à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top