Dans le classique de science-fiction de 1989 de Dan Simmons "Hypérion", les protagonistes du roman sont connectés en permanence à un réseau d'intelligence artificielle connu sous le nom de" Datasphere "qui alimente instantanément les informations directement dans leur cerveau. Alors que la connaissance est disponible immédiatement, la capacité de penser par soi-même est perdue.
Plus de 30 ans après la publication du roman de Simons, l'impact croissant de l'IA sur nos capacités intellectuelles pourrait être considéré en des termes similaires. Pour pallier ces risques, je propose une solution qui puisse concilier à la fois les progrès de l'IA et la nécessité de respecter et de préserver nos capacités cognitives.
Les avantages de l'IA pour le bien-être humain sont vastes et bien connus. Parmi eux se trouve le potentiel de la technologie pour faire progresser justice socialecombattre racisme systémiqueaméliorer la détection du cancer, atténuer la crise environnementale et stimuler productivité.
Cependant, les aspects les plus sombres de l'IA sont également mis en évidence, notamment les préjugés raciaux, sa capacité à approfondir les disparités socio-économiques et à manipuler nos émotions et notre comportement.
Le premier livre de règles de l'IA de l'Occident ?
Malgré les risques croissants, il reste encore pas de règles nationales ou internationales contraignantes régulation de l'IA. C'est pourquoi la Commission européenne proposition car un règlement sur l'intelligence artificielle est tellement pertinent.
La proposition de loi sur l'IA de la CE, dont dernière ébauche a reçu le feu vert des deux commissions du Parlement européen la semaine dernière, examine les risques potentiels inhérents à l'utilisation de la technologie et les classe en trois catégories : « inacceptables », « élevés » et « autres ». Dans la première catégorie, les pratiques d'IA qui seraient interdites sont celles qui :
-
Manipuler le comportement d'une personne d'une manière qui cause ou est susceptible de causer à cette personne ou à une autre personne un préjudice physique ou psychologique.
-
Exploiter les vulnérabilités d'un groupe spécifique de personnes (par exemple, l'âge, les handicaps) afin que l'IA déforme le comportement de ces personnes et soit susceptible de produire des dommages.
-
Évaluer et classer les personnes (par exemple, notation sociale).
-
Utiliser la reconnaissance faciale en temps réel dans les espaces publics à des fins d'application, sauf dans des cas spécifiques (par exemple, des attaques terroristes).
Dans la Loi sur l'IA, les notions de risques et de préjudices « inacceptables » sont étroitement liées. Ce sont des étapes importantes qui révèlent la nécessité de protéger des activités et des espaces physiques spécifiques contre les interférences de l'IA. Avec ma collègue Caitlin Mulholland, nous avons montré la nécessité de une réglementation plus stricte de l'IA et de la reconnaissance faciale pour protéger les droits humains fondamentaux tels que la vie privée.
Cela est particulièrement vrai en ce qui concerne les développements récents de l'IA qui impliquent la prise de décision automatisée dans les domaines judiciaires et son utilisation pour gestion des migrations. Les débats autour de ChatGPT et OpenAI soulèvent également des inquiétudes quant à leur impact sur nos capacités intellectuelles.
Sanctuaires sans IA
Ces cas montrent des inquiétudes quant au déploiement de l'IA dans des secteurs où les droits de l'homme, la vie privée et les capacités cognitives sont en jeu. Ils soulignent également le besoin d'espaces où les activités d'IA devraient être fortement réglementées.
Je soutiens que ces zones peuvent être définies à travers l'ancien concept de sanctuaires. Dans un article sur le « capitalisme de surveillance », Shoshana Zuboff se réfère de manière prémonitoire au droit d'asile comme antidote au pouvoir, nous emmenant à la découverte de sites sacrés, d'églises et de monastères où les communautés opprimées trouvaient autrefois refuge. Contre l'omniprésence de la surveillance numérique, Zuboff insiste sur le droit d'asile à travers la création de régulation numérique robuste afin que nous puissions jouir d'un "espace de refuge inviolable".
L'idée de "sanctuaires sans IA" n'implique pas l'interdiction des systèmes d'IA, mais une réglementation plus forte dans les applications de ces technologies. Dans le cas de la loi sur l'IA de l'UE, cela implique une définition plus précise de la notion de préjudice. Cependant, il n'y a pas de définition claire du préjudice dans la législation proposée par l'UE ni au niveau des États membres. Comme Suzanne Vergnolle soutient qu'une solution possible serait de trouver des critères partagés entre les États membres européens qui décriraient mieux les types de dommages résultant des pratiques manipulatrices de l'IA. Les préjudices collectifs fondés sur la race et le milieu socio-économique devraient également être pris en compte.
Pour mettre en place des sanctuaires sans IA, une réglementation nous permettant de préserver notre préjudice cognitif et mental devrait être appliquée. Un point de départ consisterait à faire respecter une nouvelle génération de droits – les « neurodroits » – qui protégeraient notre liberté cognitive face aux progrès rapides des neurotechnologies. Roberto Andorno et Marcello Ienca tenir que le droit à l'intégrité mentale- déjà protégés par la Cour européenne des droits de l'homme - devraient aller au-delà des cas de maladie mentale et s'attaquer aux intrusions non autorisées, y compris par les systèmes d'IA.
Sanctuaires sans IA : un manifeste
À l'avance, je voudrais suggérer le droit de "sanctuaires sans IA". Il contient les articles (provisoires) suivants :
-
Le droit de se retirer. Toutes les personnes ont le droit de se retirer des types de soutien de l'IA dans les domaines sensibles que l'on est en mesure de choisir pendant la période de temps que l'on peut décider. Cela implique la non-interférence totale de l'appareil AI et/ou une interférence modérée.
-
Aucune sanction. Se retirer du soutien de l'IA n'entraînera jamais d'inconvénients économiques ou sociaux.
-
Le droit à la détermination humaine. Tous les individus ont droit à une décision finale fait par une personne humaine.
-
Zones et personnes sensibles. En collaboration avec la société civile et les acteurs privés, les pouvoirs publics définiront les domaines particulièrement sensibles (par exemple, l'éducation, la santé) ainsi que les groupes humains/sociaux, comme les enfants, qui ne devraient pas être exposés/ou modérément exposés à l'IA intrusive.
Jusqu'à présent, les "espaces sans IA" ont été appliqués de manière inégale, d'un point de vue strictement spatial. Certaines écoles américaines et européennes ont choisi d'éviter les écrans dans les salles de classe - le soi-disant mouvement "éducation low-tech/no-tech". De nombreux programmes d'éducation numérique s'appuient sur des conceptions qui peuvent favoriser la dépendance, tandis que les écoles publiques et à faible financement ont tendance à s'appuyer de plus en plus sur des écrans et des outils numériques, qui améliorent un fracture sociale.
Même en dehors des environnements contrôlés tels que les salles de classe, la portée de l'IA s'étend. Pour repousser, entre 2019 et 2021, une dizaine de villes américaines ont adopté des lois restreignant et interdisant l'utilisation de la reconnaissance faciale à des fins répressives. Depuis 2022, cependant, de nombreuses villes sont reculer en réponse à une perception d'augmentation de la criminalité. Malgré la proposition de législation de la CE, en France, la vidéosurveillance IA appareils photo surveillera les JO de Paris en 2024
Malgré son potentiel de renforcement des inégalités, l'IA d'analyse faciale est utilisée dans certains entretiens d'embauche. Nourrie des données des candidats ayant réussi par le passé, l'IA aurait tendance à sélectionner les candidats issus de milieux privilégiés et à exclure ceux issus de la diversité. De telles pratiques devraient être interdites.
Les moteurs de recherche Internet alimentés par l'IA devraient également être interdits, car la technologie n'est pas prête à être utilisée à ce niveau. En effet, comme le souligne Melissa Heikkiläa dans un 2023 Examen de la technologie MIT article, "Le texte généré par l'IA semble faire autorité et cite des sources, ce qui pourrait ironiquement rendre les utilisateurs encore moins susceptibles de revérifier les informations qu'ils voient." Il y a aussi une mesure d'exploitation, car "les utilisateurs font maintenant le travail de tester cette technologie gratuitement".
Permettre le progrès, préserver les droits
Le droit à des sanctuaires sans IA permettra le progrès technique de l'IA tout en protégeant simultanément les capacités cognitives et émotionnelles de tous les individus. Pouvoir refuser l'utilisation de l'IA est essentiel si nous voulons préserver nos capacités à acquérir des connaissances, à expérimenter à notre manière et à préserver notre jugement moral.
Dans le roman de Dan Simmons, un "cybride" renaissant du poète John Keats est déconnecté de la Datasphere et est capable de résister à la prise de contrôle des IA. Ce point est instructif car il révèle aussi la pertinence des débats sur l'ingérence de l'IA dans les arts, la musique, la littérature et la culture. En effet, et avec les questions de droit d'auteur, ces activités humaines sont étroitement liées à notre imagination et à notre créativité, et ces capacités sont avant tout la pierre angulaire de nos capacités à résister et à penser par nous-mêmes.
Cet article est republié de La conversation sous licence Creative Commons. Lis le article original.
Citation: Opinion: Il est temps pour nous de parler de création d'espaces sans IA (18 mai 2023) récupéré le 21 mai 2023 sur
Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.
Source