L’IA illustre le problème du « passager clandestin » – voici pourquoi cela pointe vers la réglementation
L’IA illustre le problème du « passager clandestin » – voici pourquoi cela pointe vers la réglementation

ai
Crédit : Pixabay/CC0 Domaine public

Le 22 mars 2023, des milliers de chercheurs et de leaders technologiques, dont Elon Musk et le cofondateur d'Apple, Steve Wozniak, ont publié un lettre ouverte appelant à ralentir la course à l'intelligence artificielle. Plus précisément, la lettre recommandait aux laboratoires de suspendre la formation pour les technologies plus puissantes que le GPT-4 d'OpenAI, le génération la plus sophistiquée des systèmes d'IA générateurs de langage d'aujourd'hui, pendant au moins six mois.

Sonner l'alarme sur risques posés par l'IA n'est pas nouveau - les universitaires ont émis des avertissements sur les risques de machines super intelligentes depuis des décennies maintenant. Il n'y a toujours pas de consensus sur la probabilité de créer intelligence artificielle généraledes systèmes d'IA autonomes qui correspondent ou dépasser les humains tout au plus des tâches économiquement valables. Cependant, il est clair que les systèmes d'IA actuels présentent déjà de nombreux dangers, des préjugés raciaux dans technologie de reconnaissance faciale à la menace accrue de la désinformation et tricherie étudiante.

Bien que la lettre appelle l'industrie et les décideurs politiques à coopérer, il n'existe actuellement aucun mécanisme pour imposer une telle pause. Comme un philosophe qui étudie l'éthique de la technologiej'ai remarqué que la recherche sur l'IA illustre le "Problème de cavalier libre." Je dirais que cela devrait guider la façon dont les sociétés réagissent à ses risques - et que les bonnes intentions ne suffiront pas.

Rouler gratuitement

Le parasitisme est une conséquence courante de ce que les philosophes appellent les « problèmes d'action collective ». Ce sont des situations dans lesquelles, en tant que groupe, chacun bénéficierait d'une action particulière, mais en tant qu'individus, chaque membre profite de ne pas le faire.

De tels problèmes impliquent le plus souvent biens publics. Par exemple, supposons que les habitants d'une ville aient un intérêt collectif à financer un système de métro, ce qui exigerait que chacun d'eux paie un petit montant par le biais de taxes ou de tarifs. Tout le monde en profiterait, mais il est dans l'intérêt de chacun d'économiser de l'argent et d'éviter de payer sa juste part. Après tout, ils pourront toujours profiter du métro si la plupart des autres personnes paient.

D'où le problème du « passager clandestin » : certaines personnes ne contribueront pas leur juste part, mais bénéficieront tout de même d'un « trajet gratuit » — littéralement, dans le cas du métro. Si chaque individu ne payait pas, cependant, personne n'en profiterait.

Les philosophes ont tendance à dire que il est contraire à l'éthique de « faire du free ride"puisque les resquilleurs ne parviennent pas à rendre la pareille aux autres qui paient leur juste part. De nombreux philosophes soutiennent également que les resquilleurs manquent à leurs responsabilités dans le cadre de le contrat social, les principes coopératifs convenus collectivement qui régissent une société. En d'autres termes, ils manquent à leur devoir d'être des membres actifs de la société.

Appuyer sur pause ou aller de l'avant ?

Comme le métro, l'IA est un bien public, compte tenu de son potentiel à accomplir des tâches beaucoup plus efficacement que les opérateurs humains : tout, de diagnostiquer les patients en analysant les données médicales pour prendre le relais emplois à haut risque dans l'armée ou améliorer la sécurité minière.

Mais ses avantages et ses dangers affecteront tout le monde, même les personnes qui n'utilisent pas personnellement l'IA. Réduire Les risques de l'IA, tout le monde a intérêt à ce que la recherche de l'industrie soit menée avec soin, en toute sécurité et avec une surveillance et une transparence appropriées. Par exemple, la désinformation et les fausses nouvelles constituent déjà de sérieuses menaces pour les démocraties, mais l'IA a le potentiel de aggraver le problème en diffusant des "fausses nouvelles" plus rapidement et plus efficacement que les gens ne le peuvent.

Même si certaines entreprises technologiques arrêtaient volontairement leurs expériences, d'autres entreprises auraient un intérêt financier à poursuivre leurs propres recherches sur l'IA, ce qui leur permettrait de prendre de l'avance dans la course aux armements de l'IA. De plus, la suspension volontaire des expériences d'IA permettrait à d'autres entreprises d'obtenir un tour gratuit en récoltant éventuellement les avantages d'un développement d'IA plus sûr et plus transparent, avec le reste de la société.

Sam Altman, PDG d'OpenAI, a reconnu que l'entreprise a peur des risques posé par son système de chatbot, ChatGPT. "Nous devons être prudents ici", a-t-il déclaré dans une interview à ABC News, mentionnant le potentiel de l'IA à produire de la désinformation. "Je pense que les gens devraient être heureux que nous ayons un peu peur de cela."

Dans une lettre publiée le 5 avril 2023, OpenAI a déclaré que la société croyait que les systèmes d'IA puissants besoin de réglementation pour assurer des évaluations de sécurité approfondies et qu'il "s'engagerait activement avec les gouvernements sur la meilleure forme que cette réglementation pourrait prendre". Néanmoins, OpenAI poursuit la déploiement progressif du GPT-4, et le reste de l'industrie continue également de développer et de former des IA avancées.

Mûr pour la réglementation

Des décennies de recherche en sciences sociales sur les problèmes d'action collective a montré que là où la confiance et la bonne volonté sont insuffisantes pour éviter les passagers clandestins, la réglementation est souvent la seule alternative. La conformité volontaire est le facteur clé qui crée des scénarios de passager clandestin—et action gouvernementale est parfois le moyen de l'étouffer dans l'œuf.

Plus loin, ces règlements doivent être exécutoires. Après tout, il est peu probable que les futurs usagers du métro paient le prix à moins qu'il n'y ait une menace de punition.

Prenez l'un des problèmes de free-rider les plus dramatiques au monde aujourd'hui : changement climatique. En tant que planète, nous avons tous un intérêt majeur à maintenir un environnement habitable. Dans un système qui autorise les passagers clandestins, cependant, les incitations pour un pays à suivre des directives plus écologiques sont minces.

L'Accord de Paris, qui est actuellement l'accord mondial le plus complet sur le changement climatique, est volontaire et les Nations Unies n'ont aucun recours pour le faire respecter. Même si l'Union européenne et la Chine limitaient volontairement leurs émissions, par exemple, les États-Unis et l'Inde pourraient "free ride" sur la réduction du dioxyde de carbone tout en continuant à émettre.

Défi mondial

De même, le problème du passager clandestin fonde des arguments pour réguler le développement de l'IA. En fait, changement climatique est un parallèle particulièrement étroit, puisque ni les risques posés par l'IA ni les émissions de gaz à effet de serre ne sont limités au pays d'origine d'un programme.

De plus, la course pour développer une IA plus avancée est internationale. Même si les États-Unis introduisaient une réglementation fédérale sur la recherche et le développement de l'IA, la Chine et le Japon pourraient rouler librement et continuer leur propre Programmes d'IA.

Une réglementation et une application efficaces de l'IA nécessiteraient une action et une coopération collectives à l'échelle mondiale, tout comme pour le changement climatique. Aux Etats-Unis, application stricte exigerait une surveillance fédérale de la recherche et la capacité d'imposer de lourdes amendes ou d'arrêter des expériences d'IA non conformes pour assurer un développement responsable, que ce soit par le biais de conseils de surveillance réglementaire, de protections des lanceurs d'alerte ou, dans les cas extrêmes, de fermetures de laboratoires ou de recherche et d'accusations criminelles.

Sans application de la loi, cependant, il y aura des passagers clandestins - et les passagers clandestins signifient que la menace de l'IA ne diminuera pas de sitôt.

Fourni par La Conversation

Cet article est republié de La conversation sous licence Creative Commons. Lis le article original.La conversation

Citation: L'IA illustre le problème du « passager clandestin » - voici pourquoi cela pointe vers la réglementation (2023, 5 mai) récupéré le 6 mai 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top