L’Italie bloque temporairement ChatGPT pour des raisons de confidentialité
L’Italie bloque temporairement ChatGPT pour des raisons de confidentialité

L'Italie bloque temporairement ChatGPT pour des raisons de confidentialité
Le logo OpenAI est visible sur un téléphone portable devant un écran d'ordinateur affichant la sortie de ChatGPT, le 21 mars 2023, à Boston. L'organisme de surveillance de la vie privée du gouvernement italien a déclaré vendredi 31 mars 2023 qu'il bloquait temporairement le logiciel d'intelligence artificielle ChatGPT à la suite d'une violation de données. Crédit : AP Photo/Michael Dwyer, Fichier

L'Italie bloque temporairement le logiciel d'intelligence artificielle ChatGPT à la suite d'une violation de données alors qu'elle enquête sur une éventuelle violation des règles strictes de protection des données de l'Union européenne, a déclaré vendredi l'organisme de surveillance de la vie privée du gouvernement.

L'autorité italienne de protection des données a déclaré qu'elle prenait des mesures provisoires "jusqu'à ce que ChatGPT respecte la vie privée", notamment en limitant temporairement l'entreprise de traiter les données des utilisateurs italiens.

La société américaine OpenAI, qui a développé le chatbot, a déclaré vendredi soir qu'elle avait désactivé ChatGPT pour les utilisateurs italiens à la demande du gouvernement. La société a déclaré qu'elle pensait que ses pratiques étaient conformes aux lois européennes sur la protection de la vie privée et espère rendre bientôt disponible ChatGPT.

Alors que certaines écoles publiques et universités du monde entier ont bloqué ChatGPT de leurs réseaux locaux en raison de problèmes de plagiat des étudiants, l'action de l'Italie est "la première restriction à l'échelle nationale d'une plate-forme d'IA grand public par une démocratie", a déclaré Alp Toker, directeur du groupe de défense. NetBlocks, qui surveille l'accès à Internet dans le monde entier.

La restriction affecte la version Web de ChatGPT, couramment utilisée comme assistant d'écriture, mais il est peu probable qu'elle affecte les applications logicielles des entreprises qui ont déjà des licences avec OpenAI pour utiliser la même technologie qui pilote le chatbot, comme le moteur de recherche Bing de Microsoft.

Les systèmes d'IA qui alimentent ces chatbots, connus sous le nom de grands modèles de langage, sont capables d'imiter les styles d'écriture humains basés sur l'énorme quantité de livres numériques et d'écrits en ligne qu'ils ont ingérés.

Le chien de garde italien a déclaré qu'OpenAI doit signaler dans les 20 jours les mesures qu'il a prises pour garantir la confidentialité des données des utilisateurs ou encourir une amende pouvant aller jusqu'à 20 millions d'euros (près de 22 millions de dollars) ou 4% du chiffre d'affaires mondial annuel.

La déclaration de l'agence cite le règlement général sur la protection des données de l'UE et souligne une récente violation de données impliquant des "conversations d'utilisateurs" de ChatGPT et des informations sur les paiements des abonnés.

OpenAI a annoncé plus tôt qu'il devait mettre ChatGPT hors ligne le 20 mars pour corriger un bogue qui permettait à certaines personnes de voir les titres ou les lignes d'objet de l'historique des discussions des autres utilisateurs.

"Notre enquête a également révélé que 1,2% des utilisateurs de ChatGPT Plus auraient pu voir des données personnelles révélées à un autre utilisateur", avait déclaré la société. "Nous pensons que le nombre d'utilisateurs dont les données ont été réellement révélées à quelqu'un d'autre est extrêmement faible et nous avons contacté ceux qui pourraient être concernés."

L'organisme italien de surveillance de la vie privée, connu sous le nom de Garante, s'est également demandé si OpenAI avait une justification légale pour sa "collecte et son traitement massifs de données personnelles" utilisées pour former les algorithmes de la plateforme. Et il a déclaré que ChatGPT peut parfois générer - et stocker - de fausses informations sur des individus.

Enfin, il a noté qu'il n'y avait pas de système pour vérifier l'âge des utilisateurs, exposant les enfants à des réponses "absolument inappropriées à leur âge et à leur conscience".

OpenAI a déclaré en réponse que cela fonctionne "pour réduire les données personnelles lors de la formation de nos systèmes d'IA comme ChatGPT parce que nous voulons que notre IA en apprenne sur le monde, pas sur les particuliers".

"Nous pensons également que la réglementation de l'IA est nécessaire. Nous sommes donc impatients de travailler en étroite collaboration avec le Garante et de les éduquer sur la manière dont nos systèmes sont construits et utilisés", a déclaré la société.

La décision du chien de garde italien intervient alors que les inquiétudes grandissent quant au boom de l'intelligence artificielle. Un groupe de scientifiques et de leaders de l'industrie technologique a publié mercredi une lettre appelant des entreprises telles qu'OpenAI à suspendre le développement de modèles d'IA plus puissants jusqu'à l'automne pour donner à la société le temps de peser les risques.

Le président de l'agence italienne de surveillance de la vie privée a déclaré vendredi soir à la télévision publique italienne qu'il était l'un de ceux qui avaient signé l'appel. Pasquale Stanzione a déclaré qu'il l'avait fait parce que "les objectifs poursuivis par ceux qui développent l'IA ne sont pas clairs".

Si l'IA doit "empiéter" sur "l'autodétermination" d'une personne, alors "c'est très dangereux", a déclaré Stanzione. Il a également décrit l'absence de filtres pour les utilisateurs de moins de 13 ans comme "plutôt grave".

Le PDG d'OpenAI, basé à San Francisco, Sam Altman, a annoncé cette semaine qu'il entreprendrait un voyage sur six continents en mai pour parler de la technologie avec les utilisateurs et les développeurs. Cela comprend un arrêt prévu à Bruxelles, où les législateurs de l'Union européenne ont négocié de nouvelles règles radicales pour limiter les outils d'IA à haut risque, ainsi que des visites à Madrid, Munich, Londres et Paris.

Le groupe européen de consommateurs BEUC a appelé jeudi les autorités de l'UE et les 27 pays membres du bloc à enquêter sur ChatGPT et les chatbots AI similaires. Le BEUC a déclaré qu'il pourrait s'écouler des années avant que la législation de l'UE sur l'IA n'entre en vigueur, les autorités doivent donc agir plus rapidement pour protéger les consommateurs des risques éventuels.

"En quelques mois seulement, nous avons assisté à une adoption massive de ChatGPT, et ce n'est que le début", a déclaré la directrice générale adjointe Ursula Pachl.

Attendre la loi sur l'IA de l'UE "n'est pas suffisant, car de sérieuses inquiétudes grandissent quant à la manière dont ChatGPT et des chatbots similaires pourraient tromper et manipuler les gens".

© 2023 L'Associated Press. Tous les droits sont réservés. Ce matériel ne peut être publié, diffusé, réécrit ou redistribué sans autorisation.

Citation: L'Italie bloque temporairement ChatGPT pour des raisons de confidentialité (2023, 31 mars) récupéré le 2 avril 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top