L'intelligence artificielle (IA) fait fureur ces derniers temps aux yeux du public. La façon dont l'IA est intégrée au profit de notre vie quotidienne malgré son développement rapide reste cependant un sujet insaisissable qui mérite l'attention de nombreux scientifiques. Alors qu'en théorie, l'IA peut remplacer, voire déplacer, les êtres humains de leurs positions, le défi reste de savoir comment différentes industries et institutions peuvent tirer parti de cette avancée technologique et ne pas s'y noyer.
Récemment, une équipe de chercheurs de l'Université des sciences et technologies de Hong Kong (HKUST) a mené une étude ambitieuse des applications de l'IA sur le front de l'éducation, examinant comment l'IA pourrait améliorer la notation tout en observant le comportement des participants humains en présence d'un compagnon informatisé.
Ils ont constaté que les enseignants étaient généralement réceptifs à la contribution d'AI - jusqu'à ce que les deux parties en viennent à une dispute sur qui devrait régner en maître. Cela ressemble beaucoup à la façon dont les êtres humains interagissent les uns avec les autres lorsqu'un nouveau membre fait une incursion dans un territoire existant.
La recherche a été menée par le département d'informatique et d'ingénierie de HKUST. candidat Chengbo Zheng et quatre de ses coéquipiers sous la supervision du professeur agrégé Prof. Xiaojuan MA. Ils ont développé un membre du groupe d'IA nommé AESER (Automated Essay ScorER) et ont séparé vingt professeurs d'anglais en dix groupes pour étudier l'impact de l'AESER dans un cadre de discussion de groupe, où l'IA contribuerait à la délibération d'opinion, en posant et en répondant aux questions et même en votant pour la décision finale.
Dans cette étude, conçue comme la méthode de recherche contrôlée "Wizard of Oz", un modèle d'apprentissage en profondeur et un chercheur humain formeraient une contribution conjointe à l'AESER, qui échangerait ensuite des points de vue et mènerait des discussions avec d'autres participants dans une salle de réunion en ligne.
Alors que l'équipe s'attendait à ce que l'AESER promeuve l'objectivité et fournisse de nouvelles perspectives qui seraient autrement ignorées, des défis potentiels ont rapidement été révélés. Il y avait d'abord le risque de conformité, où l'engagement de l'IA créerait bientôt une majorité pour contrecarrer les discussions.
Deuxièmement, les points de vue fournis par l'AESER se sont révélés rigides, voire têtus, ce qui a frustré les participants lorsqu'ils ont constaté qu'un argument ne pouvait jamais être "gagné". Beaucoup pensaient également que la contribution de l'IA ne devrait pas avoir le même poids et qu'elle était plus apte à jouer le rôle d'assistant au travail humain réel.
"A ce stade, l'IA est jugée quelque peu "têtue" par les collaborateurs humains, pour le meilleur et pour le pire", a noté le professeur Ma.
"D'une part, l'IA est têtue et n'a donc pas peur d'exprimer ses opinions franchement et ouvertement. Cependant, les collaborateurs humains se sentent désengagés lorsqu'ils n'ont pas pu convaincre l'IA de manière significative de changer d'avis. Les attitudes des humains à l'égard de l'IA varient. être une seule entité intelligente tandis que d'autres considèrent l'IA comme la voix de l'intelligence collective qui émerge des mégadonnées. Des discussions sur des questions telles que l'autorité et les préjugés surgissent ainsi.
La prochaine étape immédiate pour l'équipe consiste à élargir son champ d'action pour recueillir davantage de données quantitatives, ce qui fournira des informations plus mesurables et précises sur l'impact de l'IA sur la prise de décision de groupe. Ils cherchent également à explorer de grands modèles linguistiques (LLM) tels que ChatGPT dans l'étude, ce qui pourrait potentiellement apporter de nouvelles idées et perspectives aux discussions de groupe.
Leur étude a été publiée lors de la conférence ACM sur les facteurs humains dans les systèmes informatiques en avril 2023.
Plus d'information: Chengbo Zheng et al, Competent but Rigid : Identifier l'écart dans l'autonomisation de l'IA pour participer de manière égale à la prise de décision de groupe, Actes de la conférence CHI 2023 sur les facteurs humains dans les systèmes informatiques (2023). DOI : 10.1145/3544548.3581131
Citation: Déplacement ou complément ? Des chercheurs révèlent des réponses mitigées dans une étude sur l'interaction humaine avec l'IA (2023, 13 juillet) récupérée le 15 juillet 2023 sur
Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.
Source