Pourquoi cela pourrait être faux
Pourquoi cela pourrait être faux

ChatGPT
Crédit : Unsplash/CC0 Domaine public

Le gouvernement australien a publié normes volontaires de sécurité en matière d'intelligence artificielle (IA)à côté d'un document de propositions appelant à une réglementation plus stricte de l’utilisation de cette technologie en pleine croissance dans les situations à haut risque.

Le message à retenir du ministre fédéral de l'Industrie et des Sciences, Ed Husic, était :

« Nous avons besoin que davantage de personnes utilisent l’IA et pour cela, nous devons instaurer la confiance. »

Mais pourquoi les gens devraient-ils faire confiance à cette technologie ? Et pourquoi davantage de gens devraient-ils l'utiliser ?

Les systèmes d'IA sont entraînés sur des ensembles de données incroyablement volumineux, à l'aide de mathématiques avancées que la plupart des gens ne comprennent pas. Ils produisent des résultats que nous n'avons aucun moyen de vérifier. Même les systèmes phares et à la pointe de la technologie produisent des résultats truffés d'erreurs.

ChatGPT semble devenir de moins en moins précis au fil du tempsMême à son meilleur, il je ne peux pas te dire quelles lettres sont dans le mot « fraise ». Pendant ce temps, Le chatbot Gemini de Google recommande de mettre de la colle sur la pizzaentre autres échecs comiques.

Compte tenu de tout cela, la méfiance du public à l’égard de l’IA semble tout à fait justifiée. Les arguments en faveur d’une utilisation accrue de l’IA semblent plutôt faibles, et potentiellement dangereux.

Les risques de l’IA

On a beaucoup parlé de la « menace existentielle » de l’IAet comment cela entraînera des pertes d'emplois. Les dommages causés par l'IA vont des plus évidents, comme Des véhicules autonomes qui percutent les piétons—aux plus subtils, comme Des systèmes de recrutement d'IA qui démontrent des préjugés contre les femmes ou système juridique IA des outils ayant un préjugé contre les personnes de couleur.

D’autres préjudices incluent la fraude par deepfakes collègues et de êtres chers.

Peu importe que le Rapports récents du gouvernement fédéral lui-même a montré que les humains sont plus efficaces, efficients et productifs que l’IA.

Mais si tout ce que tu as c'est un marteautout ressemble à un clou.

L’adoption de la technologie relève toujours de ce cliché familier. L’IA n’est pas toujours le meilleur outil pour le travailMais lorsque nous sommes confrontés à une nouvelle technologie passionnante, nous l’utilisons souvent sans nous demander si nous devons le faire.

Au lieu d’encourager davantage de personnes à utiliser l’IA, nous devrions tous apprendre ce qui constitue une bonne et une mauvaise utilisation de l’IA.

Devons-nous faire confiance à la technologie ou au gouvernement ?

Quel est l’intérêt pour le gouvernement australien de voir davantage de personnes utiliser l’IA ?

L’un des risques les plus importants est la fuite de données privéesCes outils collectent nos informations privées, notre propriété intellectuelle et nos pensées à une échelle que nous n’avons jamais vue auparavant.

Une grande partie de ces données, dans le cas de ChatGPT, Google Gemini, Otter.ai et d’autres modèles d’IA, ne sont pas traitées sur place en Australie.

Ces entreprises prêchent transparence, confidentialité et sécurité. Mais il est souvent difficile de découvrir si vos données sont utilisées pour former leurs nouveaux modèles, comment ils le sécurisentou quelles autres organisations ou gouvernements ont accès à ces données.

Récemment, le ministre fédéral des Services gouvernementaux, Bill Shorten, a présenté le programme Trust Exchange proposé par le gouvernement, qui a suscité des inquiétudes quant à la collecte de données encore plus nombreuses sur les citoyens australiensDans son discours au National Press Club, Shorten a ouvertement noté le soutien des grandes entreprises technologiques, y compris Google.

Si les données sur les Australiens devaient être collectées via différentes plateformes technologiques, y compris l’IA, nous pourrions assister à une surveillance de masse généralisée.

Mais ce qui est encore plus inquiétant, c’est que nous avons observé le pouvoir de la technologie à influencer la politique et le comportement.

Biais d'automatisation C'est le terme que nous utilisons pour désigner la tendance des utilisateurs à croire que la technologie est « plus intelligente » qu'ils ne le sont en réalité. Une confiance excessive dans l'IA représente un risque encore plus grand pour les Australiens : en encourageant une utilisation accrue de la technologie sans éducation adéquate, nous risquons de soumettre notre population à un système complet de surveillance et de contrôle automatisés.

Et même si vous parvenez à échapper à ce système, cela porterait atteinte à la confiance et à la cohésion sociale et influencerait les gens à leur insu.

Ces facteurs constituent une raison supplémentaire de réglementer l’utilisation de l’IA, comme le gouvernement australien envisage de le faire. Mais cette démarche ne doit pas nécessairement s’accompagner d’une incitation énergique à l’utiliser également.

Mettons un terme à ce battage médiatique aveugle

Le sujet de la régulation de l’IA est important.

L'Organisation internationale de normalisation a établi une norme sur la utilisation et gestion des systèmes d'IASa mise en œuvre en Australie conduirait à une utilisation de l’IA meilleure, plus raisonnée et mieux réglementée.

Cette norme et d’autres constituent le fondement de la norme volontaire de sécurité de l’IA proposée par le gouvernement.

Ce qui est problématique dans l’annonce faite cette semaine par le gouvernement fédéral n’est pas l’appel à une plus grande réglementation, mais le battage médiatique aveugle autour de l’utilisation de l’IA.

Concentrons-nous sur la protection des Australiens, et non sur l’obligation qu’ils ont d’utiliser l’IA et de lui faire confiance.

Fourni par The Conversation

Cet article est republié à partir de La Conversation sous licence Creative Commons. Lire la suite article original.La Conversation

Citation:Le gouvernement australien affirme que davantage de personnes doivent utiliser l'IA : pourquoi cela pourrait être une erreur (2024, 7 septembre) récupéré le 7 septembre 2024 à partir de

Ce document est soumis au droit d'auteur. En dehors de toute utilisation équitable à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre d'information uniquement.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top