Les chercheurs mettent en évidence les problèmes éthiques pour développer de futurs assistants IA
Les chercheurs mettent en évidence les problèmes éthiques pour développer de futurs assistants IA

Des chercheurs mettent en lumière les problèmes éthiques liés au développement de futurs assistants IA
Les assistants intelligents de nouvelle génération seront probablement conçus pour anticiper les désirs et les besoins d'un utilisateur, et même assister et arbitrer les interactions sociales entre les utilisateurs et leurs réseaux de soutien. Crédit : Institut de technologie de Géorgie

La plupart des gens utilisent des technologies d'assistant vocal comme Alexa ou Google Assistant pour la création de listes et les mises à jour météorologiques rapides. Mais imaginez si ces technologies pouvaient faire beaucoup plus - résumer les rendez-vous chez le médecin, rappeler à quelqu'un de prendre ses médicaments, gérer son emploi du temps (savoir quels événements sont prioritaires), et non seulement lire une recette mais aussi créer des rappels pour acheter des ingrédients - sans l'utilisateur avoir à l'inciter. Si un assistant intelligent pouvait utiliser l'intelligence artificielle pour supprimer une partie de la charge cognitive des tâches courantes, cela pourrait aider les personnes âgées à préserver leur indépendance et leur autonomie.

Les assistants intelligents de nouvelle génération ne sont pas encore sur le marché, mais les recherches nécessaires pour les créer sont en cours. Cela inclut des efforts pour développer des assistants intelligents proactifs, c'est-à-dire que le système pourrait anticiper les désirs et les besoins de l'utilisateur, et même assister et arbitrer les interactions sociales entre les utilisateurs et leurs réseaux de soutien. Mais avec la conception de systèmes qui cherchent à améliorer les capacités des personnes âgées alors qu'elles connaissent un déclin cognitif, un large éventail de problèmes éthiques se pose.

Les chercheurs du NSF AI Institute for Collaborative Assistance and Responsive Interaction for Networked Groups (AI-CARING) ont estimé qu'il était nécessaire de souligner certains de ces problèmes dès le départ, dans l'espoir que les concepteurs les prendront en compte lors du développement de la prochaine génération d'assistants intelligents. L'article de l'équipe, "Ethical Issues in Near-Future Socially Supportive Smart Assistants for Older Adults", a été publié dans la revue Transactions IEEE sur la technologie et la société.

"Nous essayons de fournir un paysage des problèmes éthiques que les concepteurs doivent prendre en compte bien avant que des systèmes d'assistants intelligents avancés n'apparaissent dans la maison d'une personne", a déclaré Jason Borenstein, professeur d'éthique et directeur des programmes d'éthique de la recherche supérieure à l'École. of Public Policy et le Bureau de l'enseignement supérieur et postdoctoral de Georgia Tech. "Si les concepteurs ne réfléchissent pas à ces problèmes, alors une famille pourrait mettre en place un parent avec un système, rentrer chez elle et croire que son parent est en sécurité alors qu'il ne l'est peut-être pas."

Selon les chercheurs d'AI-CARING, lorsqu'une personne s'appuie sur un système d'IA, cette personne devient vulnérable au système de manière unique. Pour les personnes atteintes de troubles cognitifs liés à l'âge qui pourraient utiliser la technologie pour des formes d'assistance compliquées, les enjeux deviennent encore plus importants, la vulnérabilité augmentant à mesure que leur santé décline. Les systèmes qui ne fonctionnent pas correctement pourraient mettre en péril le bien-être d'une personne âgée.

"Si un système fait une erreur alors que vous vous êtes fié à lui pour quelque chose de bénin, comme vous aider à choisir le film que vous allez regarder, ce n'est pas grave", a déclaré Alex John London, auteur principal de l'article et de K&L. Professeur Gates d'éthique et de technologies informatiques à l'Université Carnegie Mellon. "Mais si vous vous y êtes fié pour vous rappeler de prendre vos médicaments, et qu'il ne vous rappelle pas ou ne vous dit pas de prendre le mauvais médicament, ce serait un gros problème."

Selon les chercheurs, pour développer un système qui donne vraiment la priorité au bien-être de l'utilisateur, les concepteurs doivent tenir compte de questions telles que la confiance, la confiance, la confidentialité et l'évolution des capacités cognitives d'une personne. Ils doivent également s'assurer que le système prend en charge les objectifs de l'utilisateur plutôt que les objectifs d'une partie extérieure telle qu'un membre de la famille ou même une entreprise qui pourrait chercher à commercialiser des produits auprès de l'utilisateur.

Un tel système nécessiterait un modèle nuancé et en constante évolution de l'utilisateur et de ses préférences, incorporant des données provenant de diverses sources. Pour qu'un assistant intelligent fasse efficacement son travail, il peut avoir besoin de partager certaines des informations de l'utilisateur principal avec d'autres entités, ce qui peut exposer l'utilisateur à des risques.

Par exemple, un utilisateur peut souhaiter que le cabinet du médecin sache qu'il souhaite un rendez-vous chez le médecin. Mais selon la personne, ils peuvent ne pas vouloir que ces informations soient partagées avec leurs enfants, ou seulement avec un enfant et pas un autre. Selon les chercheurs, les concepteurs devraient envisager des méthodes de partage d'informations personnelles qui préservent également la capacité de l'utilisateur à les contrôler.

La confiance excessive et la sous-confiance dans les capacités du système sont également des questions importantes à prendre en compte. La confiance excessive se produit lorsque les gens projettent sur une technologie des capacités qu'elle n'a pas, ce qui pourrait les mettre en danger lorsque le système ne parvient pas à fonctionner comme ils l'avaient prévu. La confiance peut également être un problème, car si un système peut aider une personne dans une tâche importante et que la personne choisit de ne pas utiliser le système, elle peut également se retrouver sans aide.

"L'objectif de notre analyse est de mettre en évidence les défis liés à la création de systèmes d'IA véritablement assistés afin qu'ils puissent être intégrés dans la conception de l'IA dès le début", a déclaré London. "Cela peut également aider les parties prenantes à créer des références de performance qui reflètent ces exigences éthiques plutôt que d'essayer de résoudre les problèmes éthiques une fois que le système a déjà été conçu, développé et testé."

Selon Borenstein, lorsque des assistants intelligents sont créés et introduits dans les foyers, le bien-être et les objectifs de l'utilisateur principal doivent être la principale préoccupation.

"Les concepteurs sont certainement bien intentionnés, mais nous pouvons tous bénéficier de l'échange d'idées entre les disciplines et de parler avec des personnes ayant des perspectives différentes sur ces types de technologies", a déclaré Borenstein. "Ce n'est qu'une pièce de ce puzzle qui, espérons-le, éclairera le processus de conception."

Plus d'information: Alex John London et al, Problèmes éthiques dans les assistants intelligents socialement solidaires du futur proche pour les personnes âgées, Transactions IEEE sur la technologie et la société (2023). DOI : 10.1109/TTS.2023.3237124

Fourni par Georgia Institute of Technology

Citation: Des chercheurs soulignent les problèmes éthiques liés au développement de futurs assistants IA (2023, 1er août) récupéré le 6 août 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top