Des géants de la technologie contraints de révéler des secrets d’IA. Voici comment cela pourrait améliorer la vie de tous
Des géants de la technologie contraints de révéler des secrets d’IA. Voici comment cela pourrait améliorer la vie de tous

Les géants de la technologie forcés de révéler des secrets sur l'IA - voici comment cela pourrait améliorer la vie de tous
Renforcer la transparence et la responsabilité de l'IA. Crédit : PopTika/Shutterstock

La Commission européenne force 19 géants de la technologie dont Amazon, Google, TikTok et YouTube expliquer leurs algorithmes d'intelligence artificielle (IA) sous le Loi sur les services numériques. Demander ces informations à ces entreprises - plates-formes et moteurs de recherche comptant plus de 45 millions d'utilisateurs dans l'UE - est une étape indispensable pour rendre l'IA plus transparente et responsable. Cela rendra la vie meilleure pour tout le monde.

On s'attend à ce que l'IA affecte tous les aspects de notre vie, de soins de santépour éducationà ce que nous Regarder et écouter, et même comment comme nous écrivons bien. Mais l'IA génère aussi beaucoup de peur, tournant souvent autour d'un ordinateur divin devenant plus intelligent que nous, ou le risque qu'une machine chargée d'une tâche anodine puisse détruire par inadvertance l'humanité. Plus pragmatiquement, les gens se demandent souvent si L'IA les rendra redondants.

Nous y sommes déjà allés : machines et robots ont déjà remplacé de nombreux ouvriers d'usine et employés de banque sans entraîner la fin du travail. Mais les gains de productivité basés sur l'IA s'accompagnent de deux nouveaux problèmes : la transparence et la responsabilité. Et tout le monde sera perdant si nous ne réfléchissons pas sérieusement à la meilleure façon de résoudre ces problèmes.

Bien sûr, nous sommes maintenant habitués à être évalués par des algorithmes. Les banques utilisent un logiciel pour vérifier nos cotes de crédit avant de nous offrir un prêt hypothécaire, tout comme les compagnies d'assurance ou de téléphonie mobile. Applications de covoiturage faire sûr que nous sommes assez agréables avant de nous offrir un trajet. Ces évaluations utilisent une quantité limitée d'informations, sélectionnées par des humains : votre cote de solvabilité dépend de votre historique de paiements, votre cote Uber dépend de ce que les conducteurs précédents pensaient de vous.

Évaluations de la boîte noire

Mais les nouvelles technologies basées sur l'IA collectent et organisent les données sans surveillance humaine. Cela signifie qu'il est beaucoup plus compliqué de responsabiliser quelqu'un ou même de comprendre quels facteurs ont été utilisés pour arriver à une notation ou à une décision faite par la machine.

Que se passe-t-il si vous commencez à constater que personne ne vous rappelle lorsque vous postulez pour un emploi, ou que vous n'êtes pas autorisé à emprunter de l'argent ? Ce pourrait être à cause d'une erreur vous concernant quelque part sur Internet.

En Europe, vous avez le droit à l'oubli et de demander aux plateformes en ligne de supprimer les informations inexactes vous concernant. Mais il sera difficile de savoir quelle est l'information erronée si elle provient d'un algorithme non supervisé. Très probablement, aucun humain ne connaîtra la réponse exacte.

Si les erreurs sont mauvaises, la précision peut être encore pire. Que se passerait-il par exemple si vous laissiez un algorithme regarder toutes les données disponibles sur vous et évaluer votre capacité à rembourser un crédit ?

Un algorithme performant pourrait en déduire que, toutes choses étant égales par ailleurs, un femmemembre d'un groupe ethnique qui tend à être discriminéun habitant d'un quartier pauvre, quelqu'un qui parle avec un accent étranger ou qui n'est pas "bonne apparence", est moins solvable.

La recherche montre que ces types de personnes peuvent s'attendre à gagner moins que d'autres et sont donc moins susceptibles de rembourser leur crédit - les algorithmes le "sauront" également. Bien qu'il existe des règles pour empêcher les gens dans les banques de discriminer les emprunteurs potentiels, un algorithme agissant seul pourrait juger juste de facturer davantage ces personnes pour emprunter de l'argent. Une telle discrimination statistique pourrait créer un cercle vicieux : si vous devez payer plus pour emprunter, vous pourriez avoir du mal à effectuer ces remboursements plus élevés.

Même si vous interdisez à l'algorithme d'utiliser des données sur les caractéristiques protégées, il pourrait arriver à des conclusions similaires en fonction de ce que vous achetez, des films que vous regardez, des livres que vous lisez ou même ta façon d'écrire et le blagues qui font rire. Pourtant, des algorithmes sont déjà utilisés pour filtrer les demandes d'emploi, évaluer les étudiants et aider la police.

Le coût de la précision

Outre les considérations d'équité, la discrimination statistique peut nuire à tout le monde. Une étude des supermarchés français a montré, par exemple, que lorsque des employés portant un nom à consonance musulmane travaillent sous la supervision d'un responsable préjugé, le salarié est moins productif car le préjugé du supérieur devient une prophétie auto-réalisatrice.

Recherche sur les écoles italiennes montre que les stéréotypes de genre affectent les résultats. Lorsqu'un enseignant pense que les filles sont plus faibles que les garçons en mathématiques et plus fortes en littérature, les élèves organisent leurs efforts en conséquence et l'enseignant a raison. Certaines filles qui auraient pu être de grands mathématiciens ou des garçons qui auraient pu être des écrivains incroyables peuvent finir par choisir la mauvaise carrière.

Lorsque les gens sont impliqués dans la prise de décision, nous pouvons mesurer et, dans une certaine mesure, corriger les préjugés. Mais il est impossible de responsabiliser les algorithmes non supervisés si nous ne connaissons pas les informations exactes qu'ils utilisent pour prendre leurs décisions.

Si l'IA doit vraiment améliorer nos vies, alors, transparence et la responsabilité sera la clé - idéalement, avant même que les algorithmes ne soient introduits dans un processus de prise de décision. C'est l'objectif de l'UE Loi sur l'intelligence artificielle. Ainsi, comme c'est souvent le cas, les règles de l'UE pourraient rapidement devenir la norme mondiale. C'est pourquoi les entreprises doivent partager les informations commerciales avec les régulateurs avant de les utiliser pour des pratiques sensibles telles que l'embauche.

Bien sûr, ce type de réglementation implique de trouver un équilibre. Le les grandes entreprises technologiques voient l'IA comme la prochaine grande choseet l'innovation dans ce domaine est également désormais une course géopolitique. Mais l'innovation ne se produit souvent que lorsque les entreprises peuvent garder une partie de leur technologie secrète, et il y a donc toujours le risque qu'une trop grande réglementation étouffe le progrès.

Certains croient l'absence de l'UE dans les innovations majeures en matière d'IA est une conséquence directe de ses lois strictes sur la protection des données. Mais à moins que nous ne rendions les entreprises responsables des résultats de leurs algorithmes, bon nombre des avantages économiques possibles du développement de l'IA pourraient de toute façon se retourner contre eux.

Fourni par La Conversation

Cet article est republié de La conversation sous licence Creative Commons. Lis le article original.La conversation

Citation: Les géants de la technologie contraints de révéler les secrets de l'IA. Voici comment cela pourrait améliorer la vie de tous (2023, 28 avril) récupéré le 29 avril 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top