Le gouvernement fédéral australien a lancé aujourd'hui un ensemble de propositions garde-fous obligatoires pour l'IA à haut risque à côté d'un norme de sécurité volontaire pour les organisations utilisant l'IA.
Chacun de ces documents propose dix garde-fous qui se renforcent mutuellement et définissent des attentes claires pour les organisations tout au long de la chaîne d’approvisionnement de l’IA. Ils sont pertinents pour toutes les organisations qui utilisent l’IA, y compris les systèmes internes visant à accroître l’efficacité des employés et les systèmes orientés vers l’extérieur tels que les chatbots.
La plupart des garde-fous concernent des aspects tels que la responsabilité, la transparence, la tenue de registres et la garantie que les humains supervisent les systèmes d'IA de manière significative. Ils sont alignés sur les normes internationales émergentes telles que la Norme ISO pour la gestion de l'IA et le Loi sur l'intelligence artificielle de l'Union européenne.
Les propositions d’exigences obligatoires pour l’IA à haut risque, qui sont ouvertes à soumissions publiques Pour le mois prochain, il faut reconnaître que les systèmes d’IA sont particuliers dans la mesure où ils limitent la capacité des lois existantes à prévenir ou atténuer efficacement un large éventail de préjudices pour les Australiens. Bien que la définition précise de ce qui constitue un environnement à haut risque soit un élément essentiel de la consultation, l’approche fondée sur des principes proposée engloberait probablement tous les systèmes qui ont un effet juridique. Les exemples pourraient inclure les systèmes de recrutement d’IA, les systèmes qui peuvent limiter les droits de l’homme (y compris certains systèmes de reconnaissance faciale) et tout système qui peut causer des dommages physiques, comme les véhicules autonomes.
Des garde-fous bien conçus amélioreront la technologie et amélioreront notre sort à tous. Sur ce plan, le gouvernement devrait accélérer les efforts de réforme législative pour clarifier les règles existantes et améliorer à la fois la transparence et la responsabilité sur le marché. En même temps, nous n’avons pas besoin d’attendre que le gouvernement agisse.
Le marché de l’IA est un désastre
Dans l'état actuel des choses, le marché des produits et services d'IA est un véritable désastre. Le problème principal est que les gens ne savent pas comment fonctionnent les systèmes d'IA, quand ils les utilisent et si les résultats les aident ou les pénalisent.
Prenons par exemple une entreprise qui m’a récemment demandé conseil sur un service d’IA générative dont le coût est estimé à plusieurs centaines de milliers de dollars par an. Elle craignait de se faire distancer par ses concurrents et d’avoir du mal à choisir entre plusieurs fournisseurs.
Pourtant, au cours des 15 premières minutes de discussion, l’entreprise a révélé qu’elle ne disposait d’aucune information fiable sur les avantages potentiels pour l’entreprise et qu’elle n’avait aucune connaissance de l’utilisation existante de l’IA générative par ses équipes.
Il est important que nous fassions bien les choses. Si l'on en croit ne serait-ce qu'une fraction du battage médiatique, l'IA représente une opportunité énorme pour l'Australie. Estimations référencées par le gouvernement fédéral Les chercheurs suggèrent que l’augmentation économique due à l’IA et à l’automatisation pourrait atteindre 600 milliards de dollars australiens par an d’ici 2030. Cela porterait notre PIB à 25 % au-dessus des niveaux de 2023.
Mais tout cela est en danger. La preuve en est le taux d’échec alarmant des projets d’IA (plus de 80 % selon certaines estimations), une série de déploiements imprudents, Faible niveau de confiance des citoyens et la perspective de milliers de crises de type Robodebt, tant dans l’industrie que dans le gouvernement.
Le problème de l'asymétrie d'information
Le manque de compétences et d’expérience des décideurs est sans aucun doute l’un des problèmes. Mais le rythme rapide de l’innovation dans le domaine de l’IA accentue un autre défi : l’asymétrie de l’information.
L’asymétrie d’information est une simple Concept économique récompensé par le prix Nobel avec de graves conséquences pour tout le monde. Et c'est un défi particulièrement pernicieux lorsqu'il s'agit d'IA.
Lorsque les acheteurs et les vendeurs ont des connaissances inégales sur un produit ou un service, cela ne signifie pas seulement que l'une des parties gagne au détriment de l'autre. Cela peut conduire à ce que des produits de mauvaise qualité dominent le marché, voire à ce que le marché échoue complètement.
L’IA crée de nombreuses asymétries d’information. Les modèles d’IA sont techniques et complexes, ils sont souvent intégrés et cachés dans d’autres systèmes, et ils sont de plus en plus utilisés pour prendre des décisions importantes.
La recherche d’un équilibre entre ces asymétries devrait nous préoccuper tous. Les conseils d’administration, les dirigeants et les actionnaires souhaitent que les investissements dans l’IA soient rentables. Les consommateurs veulent des systèmes qui fonctionnent dans leur intérêt. Et nous voulons tous profiter des avantages de l’expansion économique tout en évitant les dommages bien réels que les systèmes d’IA peuvent infliger s’ils échouent, s’ils sont utilisés de manière malveillante ou déployés de manière inappropriée.
À court terme, du moins, les entreprises qui vendent des systèmes d’IA tirent un réel avantage de la restriction des informations afin de pouvoir conclure des affaires avec des contreparties naïves. Pour résoudre ce problème, il faudra plus qu’une simple amélioration des compétences. Il faudra utiliser une gamme d’outils et d’incitations pour recueillir et partager des informations précises, actuelles et importantes sur les systèmes d’IA.
Ce que les entreprises peuvent faire aujourd’hui
Il est désormais temps d’agir. Les entreprises de toute l’Australie peuvent se lancer Norme de sécurité volontaire pour l'IA (ou le Version de l'Organisation internationale de normalisation) et commencer à collecter et à documenter les informations dont ils ont besoin pour prendre de meilleures décisions concernant l’IA dès aujourd’hui.
Cela sera utile de deux manières. Tout d’abord, cela aidera les entreprises à adopter une approche structurée pour comprendre et gérer leur propre utilisation des systèmes d’IA, à poser des questions utiles à leurs partenaires technologiques (et à exiger des réponses de leur part) et à signaler au marché que leur utilisation de l’IA est digne de confiance.
Deuxièmement, à mesure que de plus en plus d’entreprises adoptent la norme, les fournisseurs et déployeurs australiens et internationaux ressentiront la pression du marché pour s’assurer que leurs produits et services sont adaptés à leurs besoins. En retour, il deviendra moins cher et plus facile pour nous tous de savoir si le système d’IA que nous achetons, sur lequel nous comptons ou par lequel nous sommes jugés répond réellement à nos besoins.
Ouvrir un chemin
Les consommateurs et les entreprises australiennes souhaitent tous deux une IA sûre et responsable. Mais nous devons de toute urgence combler l’énorme fossé qui existe entre les aspirations et la pratique.
Le Centre national d'IA Indice d'IA responsable montre que si 78 % des organisations estiment développer et déployer des systèmes d’IA de manière responsable, seulement 29 % d’entre elles appliquent des pratiques concrètes à cette fin.
Une IA sûre et responsable est le fruit d’une bonne gouvernance, de bonnes pratiques commerciales et d’une technologie centrée sur l’humain. Dans une perspective plus large, il s’agit également de veiller à ce que l’innovation prospère dans un marché qui fonctionne bien. Sur ces deux fronts, les normes peuvent nous aider à nous frayer un chemin à travers le désordre.
Cet article est republié à partir de La Conversation sous licence Creative Commons. Lire la suite article original.
Citation: Comment les nouvelles « barrières de sécurité » australiennes en matière d'IA peuvent assainir le marché désordonné de l'intelligence artificielle (2024, 5 septembre) récupéré le 7 septembre 2024 à partir de
Ce document est soumis au droit d'auteur. En dehors de toute utilisation équitable à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre d'information uniquement.
Source