Même lorsque les humains considèrent les assistants basés sur l’IA comme de simples outils, ils leur attribuent une responsabilité partielle dans les décisions, comme le montre une nouvelle étude.
Les futurs systèmes basés sur l’IA pourraient permettre aux véhicules autonomes de naviguer dans la circulation sans intervention humaine. Des recherches ont montré que les gens jugent ces systèmes d’IA futuristes tout aussi responsables que les humains lorsqu’ils prennent des décisions autonomes en matière de circulation. Cependant, les assistants IA réels sont très éloignés de ce type d’autonomie. Ils fournissent aux utilisateurs humains des informations utiles telles que des aides à la navigation et à la conduite.
Alors, qui est responsable dans ces cas réels lorsque quelque chose va bien ou mal ? L'utilisateur humain ? Ou l'assistant IA ? Une équipe dirigée par Louis Longin de la Chaire de philosophie de l'esprit a étudié comment les gens évaluent la responsabilité dans ces cas. Leurs conclusions sont publiées dans iScience.
"Nous avons tous des assistants intelligents dans nos poches", déclare Longin. "Pourtant, une grande partie des preuves expérimentales dont nous disposons sur les écarts de responsabilité se concentrent sur les robots ou les véhicules autonomes où l'IA est littéralement aux commandes, décidant à notre place. Enquêter sur des cas où nous sommes toujours ceux qui prennent la décision finale, mais utilisons l'IA plutôt comme un instrument sophistiqué, est essentiel.
Philosophe spécialisé dans l'interaction entre les humains et l'IA, Longin, en collaboration avec son collègue le Dr Bahador Bahrami et le professeur Ophelia Deroy, titulaire de la chaire de philosophie de l'esprit, a étudié comment 940 participants jugeaient un conducteur humain à l'aide d'un véhicule intelligent alimenté par l'IA. assistant verbal, un assistant tactile intelligent alimenté par l'IA ou un instrument de navigation sans IA. Les participants ont également indiqué s'ils considéraient l'aide à la navigation comme responsable et dans quelle mesure elle constituait un outil.
Statut ambivalent des assistants intelligents
Les résultats révèlent une ambivalence : les participants affirmaient avec force que les assistants intelligents n'étaient que des outils, mais ils les considéraient comme en partie responsables du succès ou des échecs des conducteurs humains qui les consultaient. Aucune division de responsabilité de ce type n’a eu lieu pour l’instrument non alimenté par l’IA.
Non moins surprenant pour les auteurs, les assistants intelligents étaient également considérés comme plus responsables des résultats positifs que négatifs.
"Les gens peuvent appliquer des normes morales différentes pour féliciter et blâmer. Lorsqu'un crash est évité et qu'aucun dommage ne s'ensuit, les normes sont assouplies, ce qui permet aux gens d'attribuer plus facilement le crédit que le blâme à des systèmes non humains", suggère le Dr Bahrami, qui est un expert en responsabilité collective.
Le rôle de la langue n'est pas pertinent
Dans l’étude, les auteurs n’ont trouvé aucune différence entre les assistants intelligents utilisant le langage et ceux qui alarmaient leurs utilisateurs par une vibration tactile de la roue.
"Les deux ont fourni les mêmes informations dans ce cas-ci, 'Hé, attention, quelque chose à venir', mais bien sûr, ChatGPT en pratique donne beaucoup plus d'informations", explique Ophélie Deroy, dont les recherches examinent nos attitudes contradictoires à l'égard de l'intelligence artificielle comme forme d'intelligence artificielle. croyances animistes. En ce qui concerne les informations supplémentaires fournies par les nouveaux systèmes d'IA basés sur le langage comme ChatGPT, Deroy ajoute : « Plus l'interaction est riche, plus il est facile de l'anthropomorphiser. »
"En résumé, nos résultats confortent l'idée selon laquelle les assistants IA sont considérés comme quelque chose de plus que de simples outils de recommandation, mais restent néanmoins loin des standards humains", explique Longin.
Les auteurs estiment que les résultats de la nouvelle étude auront un impact considérable sur la conception et le discours social autour des assistants IA : « Les organisations qui développent et commercialisent des assistants intelligents devraient réfléchir à la manière dont les normes sociales et morales sont affectées », conclut Longin.
Plus d'information: Louis Longin et al, L'intelligence amène la responsabilité : même les assistants intelligents d'IA sont tenus responsables, iScience (2023). DOI : 10.1016/j.isci.2023.107494
Citation: Les gens tiennent les assistants d'IA intelligents responsables des résultats, selon une étude (30 août 2023) récupérée le 30 août 2023 sur
Ce document est soumis au droit d'auteur. En dehors de toute utilisation équitable à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.
Source