Comment l’Europe est à la tête du monde dans la construction de garde-fous autour de l’IA
Comment l’Europe est à la tête du monde dans la construction de garde-fous autour de l’IA

Comment l'Europe construit des barrières d'intelligence artificielle
Le texte de la page ChatGPT du site Web OpenAI est montré sur cette photo, à New York, le 2 février 2023. Les législateurs européens se sont précipités pour ajouter un langage sur les systèmes généraux d'intelligence artificielle comme ChatGPT alors qu'ils mettaient la touche finale au premier monde occidental. Règles de l'IA. Crédit : AP Photo/Richard Drew, Fichier

Les autorités du monde entier se précipitent pour élaborer des règles sur l'intelligence artificielle, y compris dans l'Union européenne, où le projet de loi a connu un tournant jeudi.

Une commission du Parlement européen a voté pour renforcer la proposition législative phare alors qu'elle se dirige vers son adoption, dans le cadre d'un effort de plusieurs années de Bruxelles pour élaborer des garde-fous pour l'intelligence artificielle. Ces efforts sont devenus plus urgents à mesure que les progrès rapides des chatbots comme ChatGPT mettent en évidence les avantages que la technologie émergente peut apporter et les nouveaux périls qu'elle pose.

Voici un aperçu de la loi sur l'intelligence artificielle de l'UE :

COMMENT FONCTIONNENT LES RÈGLES ?

La loi sur l'IA, proposée pour la première fois en 2021, régira tout produit ou service utilisant un système d'intelligence artificielle. La loi classera les systèmes d'IA selon quatre niveaux de risque, de minime à inacceptable. Les applications plus risquées seront confrontées à des exigences plus strictes, notamment être plus transparentes et utiliser des données précises. Considérez-le comme un "système de gestion des risques pour l'IA", a déclaré Johann Laux, expert à l'Oxford Internet Institute.

QUELS SONT LES RISQUES ?

L'un des principaux objectifs de l'UE est de se prémunir contre toute menace de l'IA pour la santé et la sécurité et de protéger les droits et valeurs fondamentaux.

Cela signifie que certaines utilisations de l'IA sont un non-non absolu, comme les systèmes de "notation sociale" qui jugent les gens en fonction de leur comportement. L'IA qui exploite des personnes vulnérables, y compris des enfants, ou qui utilise une manipulation subliminale pouvant entraîner des dommages, comme un jouet interactif parlant qui encourage un comportement dangereux, est également interdite.

Les législateurs ont renforcé la proposition en votant pour interdire les outils de police prédictive, qui analysent les données pour prévoir où les crimes se produiront et qui les commettra. Ils ont également approuvé une interdiction élargie de la reconnaissance faciale à distance, à l'exception de quelques exceptions en matière d'application de la loi, comme la prévention d'une menace terroriste spécifique. La technologie scanne les passants et utilise l'IA pour faire correspondre leurs visages à une base de données.

L'objectif est "d'éviter une société contrôlée basée sur l'IA", a déclaré mercredi à la presse Brando Benifei, le législateur italien qui a contribué à diriger les efforts du Parlement européen en matière d'IA. "Nous pensons que ces technologies pourraient être utilisées à la place du bien aussi pour le mal, et nous considérons que les risques sont trop élevés."

Les systèmes d'IA utilisés dans des catégories à haut risque comme l'emploi et l'éducation, qui affecteraient le cours de la vie d'une personne, sont confrontés à des exigences strictes telles que la transparence avec les utilisateurs et la mise en place de mesures d'évaluation et d'atténuation des risques.

Le bras exécutif de l'UE affirme que la plupart des systèmes d'IA, tels que les jeux vidéo ou les filtres anti-spam, entrent dans la catégorie à faible ou sans risque.

Comment l'Europe construit des barrières d'intelligence artificielle
Le logo OpenAI est visible sur un téléphone portable devant un écran d'ordinateur affichant la sortie de ChatGPT, le 21 mars 2023, à Boston. Les législateurs européens se sont précipités pour ajouter un langage sur les systèmes généraux d'intelligence artificielle comme ChatGPT alors qu'ils mettaient la touche finale aux premières règles d'IA du monde occidental. Crédit : AP Photo/Michael Dwyer, Fichier

QU'EN EST-IL DE CHATGPT ?

La proposition originale de 108 pages mentionnait à peine les chatbots, exigeant simplement qu'ils soient étiquetés pour que les utilisateurs sachent qu'ils interagissent avec une machine. Les négociateurs ont ensuite ajouté des dispositions pour couvrir l'IA à usage général comme ChatGPT, les soumettant à certaines des mêmes exigences que les systèmes à haut risque.

Un ajout clé est l'exigence de documenter de manière approfondie tout matériel protégé par le droit d'auteur utilisé pour enseigner aux systèmes d'IA comment générer du texte, des images, des vidéos ou de la musique qui ressemble au travail humain. Cela permettrait aux créateurs de contenu de savoir si leurs articles de blog, livres numériques, articles scientifiques ou chansons pop ont été utilisés pour former des algorithmes qui alimentent des systèmes comme ChatGPT. Ensuite, ils pourraient décider si leur travail a été copié et demander réparation.

POURQUOI LES RÈGLES DE L'UE SONT-ELLES SI IMPORTANTES ?

L'Union européenne n'est pas un acteur important dans le développement de l'IA de pointe. Ce rôle est joué par les États-Unis et la Chine. Mais Bruxelles joue souvent un rôle précurseur avec des réglementations qui tendent à devenir de facto des standards mondiaux.

"Les Européens sont, globalement parlant, assez riches et ils sont nombreux", de sorte que les entreprises et les organisations décident souvent que la taille même du marché unique du bloc avec 450 millions de consommateurs facilite la mise en conformité plutôt que de développer différents produits pour différentes régions, Laux a dit.

Mais il ne s'agit pas seulement de sévir. En établissant des règles communes pour l'IA, Bruxelles tente également de développer le marché en instaurant la confiance des utilisateurs, a déclaré Laux.

"L'idée derrière cela est que si vous pouvez inciter les gens à faire confiance à l'IA et aux applications, ils l'utiliseront également davantage", a déclaré Laux. "Et lorsqu'ils l'utiliseront davantage, ils débloqueront le potentiel économique et social de l'IA."

ET SI VOUS ENFREINEZ LES RÈGLES ?

Les violations entraîneront des amendes pouvant atteindre 30 millions d'euros (33 millions de dollars) ou 6% du chiffre d'affaires mondial annuel d'une entreprise, ce qui, dans le cas d'entreprises technologiques comme Google et Microsoft, pourrait s'élever à des milliards.

ET APRÈS?

Il pourrait s'écouler des années avant que les règles ne prennent pleinement effet. Les législateurs de l'Union européenne doivent maintenant voter sur le projet de loi lors d'une session plénière à la mi-juin. Ensuite, il passe à des négociations à trois impliquant les 27 États membres du bloc, le Parlement et la Commission exécutive, où il pourrait faire face à d'autres changements alors qu'ils se disputent sur les détails. L'approbation finale est attendue d'ici la fin de l'année, ou début 2024 au plus tard, suivie d'une période de grâce pour que les entreprises et les organisations s'adaptent, souvent autour de deux ans.

© 2023 L'Associated Press. Tous les droits sont réservés. Ce matériel ne peut être publié, diffusé, réécrit ou redistribué sans autorisation.

Citation: How Europe is lead the world in building guardrails around AI (2023, May 11) récupéré le 12 mai 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top