Avons-nous besoin d’une nouvelle loi pour l’IA ? Bien sûr, mais nous pourrions d’abord essayer d’appliquer les lois que nous avons déjà
Avons-nous besoin d’une nouvelle loi pour l’IA ? Bien sûr, mais nous pourrions d’abord essayer d’appliquer les lois que nous avons déjà

Avons-nous besoin d'une nouvelle loi pour l'IA ?  Bien sûr, mais nous pourrions d'abord essayer d'appliquer les lois que nous avons déjà
Crédit : Shutterstock

La réglementation était autrefois un gros mot dans les entreprises technologiques du monde entier. Ils ont fait valoir que si les gens voulaient de meilleurs smartphones et voitures volantes, nous devions regarder au-delà des vieilles lois poussiéreuses imaginées à l'ère pré-internet.

Mais quelque chose de profond se prépare. D'abord un murmure, puis un rugissement : la loi est de retour.

Ed Husic, ministre fédéral australien responsable de la politique technologique, dirige un examen unique de la loi australienne, demandant aux Australiens comment notre loi devrait changer à l'ère de l'IA. Il a récemment dit à l'ABC"Je pense que l'ère de l'autorégulation est révolue."

Bien sûr, il y avait des mises en garde. Husic a clairement indiqué que la réglementation de l'IA devrait se concentrer sur les "éléments à haut risque" et "trouver le bon équilibre". Mais le changement de rhétorique était indubitable : si nous avions permis la création d'une sorte de Far West numérique, cela devait cesser.

Les entreprises technologiques exigent une réglementation, mais pourquoi ?

Un moment pourrait résumer l'aube de cette nouvelle ère. Le 16 mai, Sam Altman, directeur général d'OpenAI, la société responsable de ChatGPT, a déclaré au Congrès américain que "la réglementation de l'IA est essentielle".

À première vue, cela semble être une transformation étonnante. Il y a moins de dix ans, la devise de Facebook était "avancer vite et casser les choses". Lorsque son fondateur, Mark Zuckerberg, a prononcé ces mots, il a parlé au nom d'une génération d'amis de la technologie de la Silicon Valley qui considéraient la loi comme un frein à l'innovation.

La réforme est urgente, et nous devons donc saisir ce moment. Mais d'abord, nous devrions nous demander pourquoi le monde de la technologie est soudainement devenu amoureux de la réglementation.

Une explication est que les leaders technologiques peuvent voir que, sans une réglementation plus efficace, les menaces associées à l'IA pourraient éclipser son potentiel positif.

Nous avons récemment eu des rappels tragiques de la valeur de la réglementation. Pensez à OceanGate, la société à l'origine du submersible à la recherche du Titanic qui s'est désintégré plus tôt cette année, tuant tout le monde à bord. OceanGate évité certification de sécurité parce que "mettre une entité extérieure au courant de chaque innovation avant qu'elle ne soit testée dans le monde réel est contraire à l'innovation rapide".

Peut-être y a-t-il eu un véritable changement d'avis : les entreprises technologiques savent certainement que leurs produits peuvent aussi bien nuire qu'aider. Mais quelque chose d'autre est également en jeu. Lorsque les entreprises technologiques demandent aux gouvernements de légiférer pour l'IA, il y a une prémisse non énoncée : actuellement, aucune loi ne s'applique à l'IA.

Mais c'est tout simplement faux.

Les lois existantes s'appliquent déjà à l'IA

Nos lois actuelles indiquent clairement que, quelle que soit la forme de technologie utilisée, vous ne pouvez pas adopter un comportement trompeur ou négligent.

Supposons que vous conseilliez les gens sur le choix de la meilleure police d'assurance maladie, par exemple. Peu importe que vous basiez vos conseils sur un boulier ou sur la forme la plus sophistiquée d'IA, il est tout aussi illégal de prendre des commissions secrètes ou de fournir des conseils négligents.

Une partie importante du problème à l'ère de l'IA n'est pas le contenu de notre loi, mais le fait qu'elle n'est pas appliquée de manière cohérente en ce qui concerne le développement et l'utilisation de l'IA. Cela signifie que les régulateurs, les tribunaux, les avocats et le secteur communautaire doivent améliorer leur jeu pour garantir que les droits de l'homme et la protection des consommateurs sont appliqués efficacement pour l'IA.

Ce sera un gros travail. Dans notre soumission à l'examen de l'IA par le gouvernement, nous, à l'Institut de technologie humaine de l'Université de technologie de Sydney, appelons à la création d'un commissaire à l'IA, un conseiller expert indépendant auprès du gouvernement et du secteur privé. Cet organisme réduirait le battage médiatique et le bruit blanc, et donnerait des conseils clairs aux régulateurs et aux entreprises sur la façon d'utiliser l'IA dans le respect de la lettre et de l'esprit de la loi.

L'Australie doit rattraper le monde

L'Australie a connu une période de léthargie politique extrême sur le front de l'IA. Alors que l'Union européenne, l'Amérique du Nord et plusieurs pays d'Asie (dont la Chine) ont créé des garde-fous juridiques, l'Australie a tardé à agir.

Dans ce contexte, la révision de la réglementation de l'IA est cruciale. Nous ne devrions pas copier sans réfléchir d'autres juridictions, mais notre loi devrait assurer la parité de protection pour les Australiens.

Cela signifie que le parlement australien devrait adopter un cadre juridique adapté à notre système politique et juridique. Si cela signifie s'écarter du Projet de loi sur l'IA de l'UEc'est bien beau, mais notre loi doit protéger les Australiens des risques d'IA au moins aussi efficacement que les gens sont protégés en Europe.

Les informations personnelles sont le carburant de l'IA, donc le point de départ devrait être de mettre à jour notre loi sur la confidentialité. Le ministère public a publié une critique cela moderniserait notre loi sur la protection de la vie privée, mais nous n'avons pas encore vu d'engagement de changement.

La réforme est particulièrement urgente pour les utilisations à haut risque de l'IA, comme la technologie de reconnaissance faciale. Une série de enquêtes par CHOICE a montré que les entreprises utilisent de plus en plus cette technologie dans les centres commerciaux, les stades et sur le lieu de travail, sans protection adéquate contre l'injustice ou la surveillance de masse.

Il y a des solutions de réforme claires qui permettent une utilisation sûre de la reconnaissance faciale, mais nous avons besoin d'un leadership politique.

Le gouvernement doit améliorer l'IA

Le gouvernement doit également donner le bon exemple. La Commission royale Robodebt a montré avec des détails déchirants comment le système automatisé de recouvrement des dettes du gouvernement fédéral dans le système de protection sociale a horriblement mal tourné, causant un préjudice énorme et généralisé à la communauté.

La leçon de cette expérience n'est pas que nous devrions jeter tous les ordinateurs. Mais cela montre que nous avons besoin de garde-fous clairs et solides qui garantissent que le gouvernement montre la voie en utilisant l'IA de manière sûre et responsable.

Fourni par La Conversation

Cet article est republié de La conversation sous licence Creative Commons. Lis le article original.La conversation

Citation: Avons-nous besoin d'une nouvelle loi pour l'IA ? Bien sûr, mais nous pourrions d'abord essayer d'appliquer les lois que nous avons déjà (2023, 14 août) récupérées le 21 août 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top