


La Federal Trade Commission a lancé une enquête sur le fabricant de ChatGPT OpenAI pour violations potentielles des lois sur la protection des consommateurs. La FTC a envoyé à l'entreprise une demande d'informations de 20 pages dans la semaine du 10 juillet 2023. Cette décision intervient alors que les régulateurs européens ont commencé à agiret Le Congrès travaille sur la législation réglementer l'industrie de l'intelligence artificielle.
La FTC a demandé à OpenAI de fournir des détails sur toutes les plaintes que l'entreprise a reçues des utilisateurs concernant "faux, trompeur, dénigrant ou préjudiciable" déclarations publiées par OpenAI, et si OpenAI s'est engagé dans des pratiques déloyales ou trompeuses concernant les risques de préjudice pour les consommateurs, y compris l'atteinte à la réputation. L'agence a posé des questions détaillées sur la façon dont OpenAI obtient ses données, comment elle forme ses modèles, les processus qu'elle utilise pour la rétroaction humaine, l'évaluation et l'atténuation des risques, et ses mécanismes de protection de la vie privée.
En tant que chercheur des médias sociaux et de l'IAje reconnais l'immense potentiel de transformation des modèles d'IA générative, mais je crois que ces systèmes présenter des risques. En particulier, dans le cadre de la protection des consommateurs, ces modèles peuvent produire des erreurs, présenter des biais et violer la confidentialité des données personnelles.
Pouvoir caché
Au cœur des chatbots tels que ChatGPT et des outils de génération d'images tels que DALL-E se trouve la puissance des modèles d'IA générative qui peuvent créer un contenu réaliste à partir de textes, d'images, d'entrées audio et vidéo. Ces outils sont accessibles via un navigateur ou une application pour smartphone.
Depuis ces modèles d'IA n'ont pas d'utilisation prédéfinie, ils peuvent être affinés pour un large éventail d'applications dans une variété de domaines allant de la finance à la biologie. Les modèles, formés sur de grandes quantités de données, peuvent être adaptés à différentes tâches avec peu ou pas de codage et parfois aussi facilement qu'en décrivant une tâche dans un langage simple.
Étant donné que les modèles d'IA tels que GPT-3 et GPT-4 ont été développés par des organisations privées utilisant des ensembles de données propriétaires, le public ne sait pas la nature des données utilisées pour les former. L'opacité des données de formation et la complexité de l'architecture du modèle - GPT-3 a été formés sur plus de 175 milliards de variables ou "paramètres"— rendent difficile pour quiconque de vérifier ces modèles. En conséquence, c'est difficile de prouver que la façon dont ils sont construits ou entraînés cause des dommages.
Hallucinations
Dans les IA du modèle de langage, une hallucination est une réponse confiante qui est inexact et apparemment non justifié par les données d'entraînement d'un modèle. Même certains modèles d'IA génératifs conçus pour être moins sujets aux hallucinations les ont amplifiés.
Il existe un risque que les modèles d'IA génératifs produisent des informations incorrectes ou trompeuses qui peuvent finir par être préjudiciables aux utilisateurs. Une étude portant sur la capacité de ChatGPT à générer des écrits scientifiques factuellement corrects dans le domaine médical a révélé que ChatGPT finissait soit générer des citations d'articles inexistants ou rapporter des résultats inexistants. Mes collaborateurs et moi trouvé des modèles similaires dans nos enquêtes.
De telles hallucinations peuvent causer de réels dégâts lorsque les modèles sont utilisés sans surveillance adéquate. Par exemple, ChatGPT a faussement affirmé qu'un professeur qu'il avait nommé avait été accusé de harcèlement sexuel. Et un animateur de radio a déposé une procès en diffamation contre OpenAI concernant ChatGPT prétendant à tort qu'il y avait une plainte légale contre lui pour détournement de fonds.
Préjugés et discrimination
Sans garanties ou protections adéquates, les modèles d'IA générative formés sur de grandes quantités de données collectées sur Internet peuvent finir par reproduire les préjugés sociétaux existants. Par exemple, les organisations qui utilisent des modèles d'IA générative pour concevoir des campagnes de recrutement pourraient finir par discriminer involontairement certains groupes de personnes.
Lorsqu'un journaliste a demandé à DALL-E 2 de générer des images d'"un journaliste technologique écrivant un article sur un nouveau système d'IA capable de créer des images remarquables et étranges", il n'a généré que des images d'hommes. Une application de portrait IA présentaient plusieurs préjugés socioculturelspar exemple en éclaircissant la couleur de peau d'une actrice.
Confidentialité des données
Une autre préoccupation majeure, particulièrement pertinente pour l'enquête de la FTC, est le risque de violation de la vie privée où l'IA peut finir par révéler des informations sensibles ou confidentielles. Un pirate informatique pourrait accéder à des informations sensibles sur des personnes dont les données ont été utilisées pour former un modèle d'IA.
Les chercheurs ont mis en garde contre les risques de manipulations appelées attaques par injection rapide, qui peut inciter l'IA générative à donner des informations qu'elle ne devrait pas. Attaques "d'injection rapide indirecte" pourrait tromper les modèles d'IA avec des étapes telles que l'envoi d'une invitation de calendrier à quelqu'un avec des instructions pour que son assistant numérique exporte les données du destinataire et les envoie au pirate.
Quelques solutions
La Commission européenne a publié lignes directrices éthiques pour une IA digne de confiance qui incluent une liste de contrôle d'évaluation pour six aspects différents des systèmes d'IA : agence humaine et surveillance ; robustesse technique et sécurité ; confidentialité et gouvernance des données ; transparence, diversité, non-discrimination et équité ; bien-être sociétal et environnemental; et responsabilité.
Une meilleure documentation des processus des développeurs d'IA peut aider à mettre en évidence les dommages potentiels. Par exemple, les chercheurs en équité algorithmique ont proposé des cartes modèlesqui s'apparentent aux étiquettes nutritionnelles des aliments. Déclarations de données et feuilles de donnéesqui caractérisent les ensembles de données utilisés pour former des modèles d'IA, joueraient un rôle similaire.
Amazon Web Services, par exemple, a introduit des cartes de service AI qui décrivent les utilisations et les limites de certains modèles qu'il propose. Les cartes décrivent les capacités des modèles, les données de formation et les utilisations prévues.
L'enquête de la FTC laisse entendre que ce type de divulgation pourrait être une direction prise par les régulateurs américains. De plus, si la FTC découvre qu'OpenAI a violé les lois sur la protection des consommateurs, elle pourrait infliger une amende à l'entreprise ou la soumettre à un décret de consentement.
Cet article est republié de La conversation sous licence Creative Commons. Lis le article original.
Citation: Sonde FTC d'OpenAI : Consumer protection is the opening salvo of US AI regulation (2023, July 19) récupéré le 23 juillet 2023 sur
Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.
Source