Comment garantir une technologie d’IA responsable ?
Comment garantir une technologie d’IA responsable ?

chatgpt
Crédit : Pixabay/CC0 Domaine public

Le moteur de recherche ChatGPT a suscité des réactions allant d'un grand enthousiasme à une profonde inquiétude. Au DTU, le professeur britannique Ross Winthereik nous encourage à toujours aborder les nouvelles technologies de manière ouverte et analytique pour évaluer comment elles peuvent être utilisées de manière responsable.

Pourquoi pensez-vous que les gens réagissent si fortement à ChatGPT ?

Je pense qu'une des raisons est que ChatGPT interagit avec nous d'une manière différente des moteurs de recherche que nous connaissons en personnalisant sa réponse dans des phrases impeccables qui peuvent être confondues avec un raisonnement.

Certains le considèrent comme controversé parce qu'il utilise des données qui peuvent être librement disponibles sur Internet mais qui ne sont pas destinées à faire des profits. L'entreprise derrière ChatGPT a rompu un contrat social en exploitant quelque chose dans le domaine public pour son propre profit.

Dans le même temps, les données des utilisateurs sont collectées d'une manière différente que dans les moteurs de recherche que nous connaissons déjà, car, en tant que nouveauté, vous donnez quelque chose de vous-même sous la forme de votre attachement aux idées ou aux pensées que vous partagez précisément à cause de la façon dont ChatGPT interagit avec vous.

Nous ne savons pas non plus s'il est conçu pour affecter l'utilisateur de manière spécifique - par exemple s'il a tendance à être raciste et misogyne, tout comme de nombreux autres systèmes logiciels basés sur l'apprentissage automatique, car ils amplifient les éléments prédominants des données sur lesquelles ils sont entraînés.

Au lieu de nous concentrer aveuglément sur des produits individuels, vous nous encouragez à exiger généralement que la technologie soit responsable. Mais comment définissez-vous la « technologie responsable » ?

La responsabilité d'une technologie dépend entièrement de l'interaction entre la raison pour laquelle elle a été créée et la manière dont elle est utilisée. Atteint-il les objectifs fixés ou fonctionne-t-il complètement différemment dans la pratique ?

Un fabricant peut viser à créer une technologie responsable, mais vous ne pouvez pas étiqueter unilatéralement des technologies comme « responsables » ou « irresponsables ». Il est donc très important de surveiller de près les effets spécifiques, afin que nous découvrions, par exemple, si les technologies ont des conséquences inappropriées, malgré de bonnes intentions.

Comment évaluer si une technologie est responsable ?

La première étape consiste à décrire la technologie dans son contexte. Comment s'inscrit-il dans le contexte plus large des infrastructures, des modèles commerciaux et des ensembles de valeurs culturelles ? Une approche irresponsable serait de dire "Oh, maintenant il y a une technologie qui va révolutionner le monde, alors nous ferions mieux de réagir", puis de nous précipiter pour l'utiliser ou de l'interdire sans l'examiner davantage.

La deuxième étape consiste à analyser ses effets : que se passe-t-il en pratique ? La technologie tient-elle ses promesses ? Si non, que fait-il d'autre ? Et quelles conditions doivent être remplies pour que ce soit une bonne technologie ?

La troisième étape consiste à expérimenter la technologie. Quelle est la limite de ses capacités ? Cela exclut-il quelqu'un ou quelque chose ?

Il est également important d'évaluer si les valeurs que représente la technologie correspondent aux valeurs de l'organisation, de l'école, du secteur ou du pays en question. Sinon, vous pouvez dire non et choisir de ne pas en faire la promotion ou d'imposer des restrictions strictes à son utilisation.

Pour ce qui est de l'infrastructure numérique publique — qui est mon domaine de recherche —, il s'agit de s'assurer que la technologie soutient la société que nous voulons.

La technologie responsable est-elle égale à la technologie nécessaire ?

Nous pouvons facilement obtenir toutes sortes de technologies pour faire des choses pour nous, mais où voulons-nous aller en tant qu'humains ? Que voudrions-nous former ? C'est le genre de questions que nous devons également nous poser dans le contexte dont nous faisons partie pour déterminer s'il est nécessaire et bénéfique d'adopter une technologie particulière.

Comme quelqu'un l'a écrit dans le journal du lycée danois 'Gymnasieskolen', vous n'apportez pas de chariot élévateur avec vous au centre de fitness pour soulever des poids. Vous soulevez les poids vous-même parce que vous voulez développer vos muscles. Il ne croyait pas que les chatbots facilitent l'apprentissage, il serait donc insensé de les utiliser dans les écoles.

Le débat est depuis devenu plus équilibré, plusieurs lieux ayant décidé d'autoriser l'utilisation de ChatGBT dans les classes et dans le cadre de la remise des devoirs. À mon avis, l'approche responsable des chatbots consiste à tirer un trait sur son utilisation, puis à collecter systématiquement les expériences en dialoguant avec les enseignants, les conférenciers et les étudiants.

Ce serait également une bonne idée de diffuser une compréhension de base de la technologie en enseignant que toute technologie a des préférences, des valeurs, des normes, des politiques et une histoire intégrées.

La réglementation est-elle nécessaire pour garantir une utilisation responsable de la technologie ?

Je ne peux pas penser à des technologies au niveau de l'infrastructure ou de la société qui ne sont pas soumises à une réglementation. Quand on parle de technologies numériques, le droit à la vie privée est quelque chose qui doit être et est réglementé.

Les Big Tech se sont avérées notoirement difficiles à réglementer car elles fournissent des services gratuits en échange de données. C'est leur modèle d'affaires. L'UE essaie de contrôler cela avec le RGPD et d'autres réglementations. Malheureusement, la législation semble toujours en retard sur la réalité, mais c'est probablement sa nature.

Je préconise que nous menions davantage de recherches sur l'interaction entre les humains et les systèmes automatisés pour nous permettre de prendre de meilleures décisions au niveau sociétal. Il est important que nos institutions démocratiques et notre confiance dans les autorités ne soient pas érodées parce que nous pensons que quelque chose est malin. Nous devons examiner soigneusement les effets pratiques.

Fourni par l'Université technique du Danemark

Citation: Q&A : Comment garantir une technologie d'IA responsable ? (2023, 1er juin) récupéré le 3 juin 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top