Normes morales accrues pour les robots dans les dilemmes de sauvetage
Normes morales accrues pour les robots dans les dilemmes de sauvetage

Les robots en tant que sauveteurs ne sont pas autorisés à faire des erreurs
Crédit : Yle/ Heidi Grönroos / Shutterstock / Pixabay

Le groupe de recherche Moralities of Intelligent Machines dirigé par Michael Laakasuo étudie les opinions morales des gens sur des situations de sauvetage imaginaires où le sauveteur est soit un humain, soit un robot spécialement conçu pour la tâche. Le sauveteur doit décider s'il veut sauver, par exemple, une victime innocente d'un accident de bateau ou deux individus dont le comportement irresponsable a causé l'accident.

"Il s'agit de mettre le nombre de vies sauvées en contradiction avec le fait de donner la priorité aux innocents", explique l'auteur principal de l'étude, Jukka Sundvall.

L'objectif de l'étude était de collecter des données sur les facteurs sur lesquels les gens mettent l'accent dans leurs évaluations morales sur les situations de prise de décision difficiles, et si l'accent change si la décision est attribuée à un robot. En d'autres termes, les robots sauveteurs sont-ils censés adhérer à des priorités différentes de celles des humains ?

La découverte la plus importante de l'étude est que les participants à l'étude (N = 3 752) et les répondants de une enquête en ligne (en finnois) menée avec le radiodiffuseur public finlandais Yle (N = 19 000) a mis l'accent sur l'innocence de ceux qui devaient être sauvés dans la situation d'accident plus que sur leur nombre. En général, les gens pensaient qu'il valait mieux sauver une personne innocente que deux qui avaient causé l'accident, que ce soit l'agent de sauvetage humain ou robot. Les répondants voulaient que le sauveteur maximise le nombre de vies sauvées uniquement dans les situations où toutes les parties impliquées dans l'accident étaient également coupables ou non coupables.

Autre constat, cet accent était mis en évidence dans le cas des robots : si le sauveteur décidait de maximiser le nombre de vies sauvées en secourant les responsables de l'accident, la décision était plus fortement condamnée dans le cas des robots que des sauveteurs humains.

Les robots sont évalués de manière plus critique que les humains

"Sur la base des résultats, il semble que les décisions des robots soient évaluées sur des critères moraux plus stricts", déclare Michael Laakasuo.

"Alors que les robots et les humains sont soumis à des attentes morales similaires, on s'attend à ce que les robots soient meilleurs que les humains pour répondre à ces attentes."

Une raison possible à cela est que les gens souhaitent que la prise de décision automatisée soit "juste" beaucoup plus souvent que les gens. Si cela ne se produit pas, cela remet en question le but de l'automatisation.

"Peut-être que de mauvaises décisions morales prises par des humains peuvent être considérées comme des incidents compréhensibles, alors que dans le cas des robots, elles sont considérées comme des indicateurs d'erreurs de programmation", songe Sundvall.

Examiner les attitudes envers les nouvelles technologies

Sur le plan pratique, des critères moraux plus stricts peuvent entraîner des réactions nettement négatives dans des situations réelles où le résultat de la prise de décision automatisée est moralement médiocre du point de vue des citoyens. Des attentes élevées peuvent entraver le déploiement de la prise de décision automatisée. Il n'est pas toujours clair à l'avance ce que le grand public considère comme une option moralement pire dans des circonstances individuelles, sans parler de la quantité de résultats moralement plus faibles considérés comme un "nombre acceptable d'erreurs".

L'étude fait partie des domaines de la psychologie morale et des études d'interaction homme-technologie, et son but est d'élargir notre compréhension de la pensée morale et des attitudes envers les nouvelles technologies.

Selon Sundvall, l'étude est importante car le développement de l'intelligence artificielle et de la robotique est actuellement d'actualité.

"Les possibilités de prise de décision automatisée dans divers secteurs de la société augmentent, et il est utile d'essayer d'anticiper les problèmes connexes", note Sundvall.

L'article de recherche, intitulé "L'innocence sur l'utilitarisme : des normes morales accrues pour les robots dans les dilemmes de sauvetage", a été publié dans le Journal européen de psychologie sociale.

Plus d'information: Jukka Sundvall et al, Innocence over utilitarism: Enhanced moral standards for robots in rescue dilemmes, Journal européen de psychologie sociale (2023). DOI : 10.1002/ejsp.2936

Fourni par l'Université d'Helsinki

Citation: Innocence over utilitarism: Enhanced moral standards for robots in rescue dilemmas (11 avril 2023) récupéré le 15 avril 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top