Bien que l'intelligence artificielle soit présente dans nos vies depuis des années, 2022 a servi de terrain d'essai majeur pour la technologie. Compris entre ChatGPT, Art de l'IA génération et Hollywood adopter l'IA, l'IA a trouvé un nouveau type d'implantation et de battage publicitaire auprès du grand public. Mais il est également venu avec une nouvelle vague de préoccupations concernant la confidentialité et l'éthique.
Avec tout ce que 2022 a fait pour rehausser le profil de la technologie, les experts en IA de la Northeastern University affirment que 2023 sera une année tout aussi importante pour l'avenir de l'IA, mais elle sera également confrontée à sa juste part de défis.
Usama Fayyad, directeur exécutif de l'Institute for Experiential AI de Northeastern, a déclaré que le battage médiatique autour de l'IA n'était pas la seule chose qui a défini la trajectoire de la technologie l'année dernière. Au fur et à mesure que le profil public de l'IA augmentait en 2022, les malentendus et les interprétations erronées qui l'entouraient augmentaient également.
"Il y a certainement eu des contributions significatives en termes de démonstration de ce que l'IA pouvait faire, mais probablement pas d'explication réaliste des limites et de ce qui est possible", déclare Fayyad.
Il dit que la conversation récente autour de l'IA est définie par la tension entre la peur que la technologie automatise les tâches humaines et "la compréhension plus réaliste" que les outils d'IA augmenteront, et non remplaceront, les capacités humaines. Éduquer le public sur le potentiel et les limites de l'IA sera plus important que jamais en 2023.
"C'est très triste que dans cette discussion [about ChatGPT] nous perdons qu'une grande partie de cela dépend de l'humain dans la boucle », dit Fayyad. « Il y aura une bonne maturation autour de toute cette notion qu'il ne s'agit pas d'automatiser les humains hors de la boucle ; il s'agit d'amener les gens dans la boucle de la bonne manière."
Cela ne signifie pas que l'IA n'aura pas d'effet perturbateur sur des domaines spécifiques de la vie. Fayyad affirme que les personnes travaillant dans l'enseignement supérieur, le recrutement et les domaines créatifs se sentent déjà menacées, à juste titre, par la technologie.
Les éducateurs sont déjà paniquer à propos de ChatGPT et sa capacité à laisser les étudiants demander au chatbot d'Open AI d'écrire des essais entiers pour eux en quelques secondes. C'est un nouveau type de tricherie qui est potentiellement indétectable, et Fayyad prédit que 2023 verra de nouveaux outils conçus pour lutter contre ce type de comportement. Un étudiant de Princeton a déjà conçu une application pour détecter si un essai a été écrit à l'aide de ChatGPT.
"Cela signifie que nous verrons une croissance significative des technologies de contre-mesures et de détection quand quelque chose comme ça se produit", a déclaré Fayyad.
Dans le même temps, Fayyad et Rahul Bhargava, professeur adjoint d'art, de design et de journalisme à Northeastern, conviennent que le monde de l'éducation devra s'adapter à la technologie, pas seulement l'interdire.
"Y aura-t-il de nouvelles façons d'écrire? Bien sûr", dit Bhargava. "En tant que professeur, suis-je inquiet à ce sujet ? Bien sûr, mais nous utilisons déjà des trucs d'IA avec nos étudiants du département de journalisme ici. Nous essayons ces trucs et nous le découvrons, et nous le comprendrons." en dehors."
L'IA pourrait potentiellement être un catalyseur pour que les éducateurs réexaminent leurs méthodes en 2023.
"Y a-t-il un artefact différent que vous pouvez me montrer que vous avez appris [something], ce n'est pas un essai écrit de deux pages qu'un ordinateur peut générer ? » dit Bhargava. « Pourquoi voudrais-je qu'un étudiant régurgite des informations ? Ce n'est pas apprendre."
La question de savoir si l'IA remplacera les emplois humains est moins importante que les questions éthiques plus vitales qui doivent être abordées en 2023, déclare Bhargava. La préoccupation la plus pressante est "qui fabrique ces choses et quelles questions posent-ils sur les préjugés qui y sont intégrés". Lorsque des outils comme ChatGPT sont conçus par des équipes avec des perspectives et une diversité limitées, le résultat est un outil manquant de perspective.
"Ces systèmes qui se construisent … sont des miroirs de notre culture et de nos pratiques", déclare Bhargava. "Dans quelle direction pointent-ils et qui les regarde ? Non, ils n'intègrent pas de parti pris ; ils le reflètent."
Certaines mesures sont prises pour répondre aux questions éthiques liées au biais de l'IA. Dakuo Wang, professeur agrégé d'art et de design et d'informatique, explique que la véritable innovation de ChatGPT réside dans la manière dont il utilise les étiqueteurs de données humaines pendant le processus de formation de l'IA pour limiter les biais et augmenter la précision.
Mais même dans ce cas, la technologie n'est aussi bonne que les données sur lesquelles elle a été formée. Sans les bonnes données, les inexactitudes et les limites deviennent beaucoup plus évidentes et potentiellement dangereuses.
Wang prévoit que des cas comme ChatGPT aideront le public, l'industrie privée et la communauté de la recherche à apprendre que "les données sont la clé".
"Qui détient les données et comment peuvent-ils transformer ces données existantes dans un format qu'ils peuvent [use to] peaufiner ou relancer leur propre version du modèle ? » dit Wang. « Cette partie deviendra de plus en plus importante. »
Malgré les efforts visant à réduire les biais dans ces technologies, les dangers de l'IA, en particulier dans les forces de l'ordre et le système pénitentiaire, sont bien documentés, en particulier parmi les populations minoritaires aux États-Unis. Ce que Bhargava dit de nouveau en 2023, c'est la façon dont ces technologies commencent à avoir un impact. la majorité.
C'est pourquoi les experts de Northeastern prévoient que les lois et réglementations sur l'IA commenceront à se développer en 2023, même si c'est à un rythme d'escargot par rapport à la technologie elle-même. L'année dernière, La ville de New York a adopté une loi qui est entré en vigueur au début de 2023 et qui restreint l'utilisation de l'IA dans les pratiques d'embauche.
"Il est peut-être trop tôt pour en arriver à cet aspect réglementaire, même si nous constatons maintenant une maturation et une accélération définitives, c'est quand il s'agit de choses comme la vie privée, quand il s'agit de l'utilisation déloyale de l'IA ou de décider qui porte la responsabilité quand un algorithme d'IA développe un biais involontaire ou intentionnel », déclare Fayyad.
Citation: L'intelligence artificielle est là, mais la technologie fait face à des défis majeurs en 2023 (11 janvier 2023) récupéré le 12 janvier 2023 sur
Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.
Source