L'autorité italienne de protection des données a déclaré qu'elle était disposée à lever son ChatGPT interdire si OpenAI remplit des conditions spécifiques.
Le Garant de la protection des données personnelles (GPDP) a annoncé le mois dernier qu'il bloquait l'accès au ChatGPT d'OpenAI. Cette décision faisait partie d'une enquête en cours visant à déterminer si le chatbot avait violé les lois italiennes sur la confidentialité des données et la tristement célèbre loi de l'UE. Règlement général sur la protection des données (RGPD).
Le GPDP craignait que ChatGPT puisse rappeler et émettre des informations personnelles, telles que des numéros de téléphone et des adresses, à partir de requêtes d'entrée. De plus, les responsables craignaient que le chatbot n'expose les mineurs à des réponses inappropriées qui pourraient potentiellement être préjudiciables.
Le GPDP annonce qu'il lèvera l'interdiction de ChatGPT si son créateur, OpenAI, applique des règles protégeant les données personnelles des mineurs et des utilisateurs d'ici le 30 avril 2023.
OpenAI a été invité à informer les utilisateurs sur son site Web de la manière dont ChatGPT stocke et traite leurs données et demande aux utilisateurs de confirmer qu'ils ont 18 ans et plus avant d'utiliser le logiciel.
Un processus de vérification de l'âge sera nécessaire lors de l'enregistrement de nouveaux utilisateurs et les enfants de moins de 13 ans doivent être empêchés d'accéder au logiciel. Les personnes âgées de 13 à 18 ans doivent obtenir le consentement de leurs parents pour utiliser ChatGPT.
L'entreprise doit également demander le consentement explicite pour utiliser les données des personnes pour former ses modèles d'IA et permettre à quiconque - qu'il soit utilisateur ou non - de demander que toute fausse information personnelle générée par ChatGPT soit corrigée ou supprimée.
Tous ces changements doivent être mis en œuvre d'ici le 30 septembre, sinon l'interdiction sera rétablie.
Cette décision s'inscrit dans une tendance plus large d'examen accru des technologies d'IA par les régulateurs du monde entier. ChatGPT n'est pas le seul système d'IA à avoir été confronté à des défis réglementaires.
Les régulateurs au Canada et en France ont également lancé des enquêtes pour savoir si ChatGPT viole les lois sur la confidentialité des données après avoir reçu des plaintes officielles. Pendant ce temps, l'Espagne a exhorté le chien de garde de la vie privée de l'UE à lancer une enquête plus approfondie sur ChatGPT.
L'examen international de ChatGPT et des systèmes d'IA similaires souligne la nécessité pour les développeurs d'être proactifs dans la résolution des problèmes de confidentialité et la mise en œuvre de garanties pour protéger les données personnelles des utilisateurs.
(Photo par Levart_Photographe sur Unsplash)
En rapport: Un groupe de réflexion sur l'IA qualifie le GPT-4 de risque pour la sécurité publique

Vous voulez en savoir plus sur l'IA et le Big Data auprès des leaders de l'industrie ? Vérifier Salon de l'IA et du Big Data se déroulant à Amsterdam, en Californie et à Londres. L'événement est co-localisé avec Semaine de la transformation numérique.
Découvrez d'autres événements et webinaires technologiques d'entreprise à venir propulsés par TechForge ici.
Source