Les chercheurs d'OpenAI ont collaboré avec le Center for Security and Emerging Technology de l'Université de Georgetown et l'Observatoire Internet de Stanford pour enquêter sur la façon dont les grands modèles de langage pourraient être utilisés à des fins de désinformation. La collaboration comprenait un atelier d'octobre 2021 réunissant 30 chercheurs en désinformation, experts en apprentissage automatique et analystes des politiques, et a abouti à un rapport co-écrit s'appuyant sur plus d'un an de recherche. Ce rapport décrit les menaces que les modèles linguistiques font peser sur l'environnement de l'information s'ils sont utilisés pour renforcer les campagnes de désinformation et présente un cadre d'analyse des mesures d'atténuation potentielles. Lire le rapport complet sur ici.
À mesure que les modèles de langage génératif s'améliorent, ils ouvrent de nouvelles possibilités dans des domaines aussi divers que la santé, le droit, l'éducation et la science. Mais, comme pour toute nouvelle technologie, il convient de réfléchir à la manière dont elles peuvent être utilisées à mauvais escient. Dans un contexte d'opérations récurrentes d'influence en ligne—secret ou alors trompeur efforts pour influencer les opinions d'un public cible - le document demande:
Comment l'évolution des modèles de langage peut-elle influencer les opérations et quelles mesures peuvent être prises pour atténuer cette menace ?
Notre travail a réuni différents horizons et expertises - des chercheurs connaissant les tactiques, les techniques et les procédures des campagnes de désinformation en ligne, ainsi que des experts en apprentissage automatique dans le domaine de l'intelligence artificielle générative - pour fonder notre analyse sur les tendances dans les deux domaines.
Nous pensons qu'il est essentiel d'analyser la menace des opérations d'influence activées par l'IA et de définir les mesures qui peuvent être prises avant les modèles de langage sont utilisés pour les opérations d'influence à grande échelle. Nous espérons que nos recherches informeront les décideurs politiques qui sont nouveaux dans les domaines de l'IA ou de la désinformation, et stimuleront des recherches approfondies sur les stratégies d'atténuation potentielles pour les développeurs d'IA, les décideurs et les chercheurs en désinformation.
Comment l'IA pourrait-elle affecter les opérations d'influence ?
Lorsque les chercheurs évaluent les opérations d'influence, ils considèrent acteurs, comportements et contenus. La disponibilité généralisée de la technologie alimentée par des modèles de langage a le potentiel d'avoir un impact sur les trois facettes :
-
Acteurs: Les modèles linguistiques pourraient réduire le coût de fonctionnement des opérations d'influence, les mettant à la portée de nouveaux acteurs et types d'acteurs. De même, les propagandistes à louer qui automatisent la production de texte peuvent acquérir de nouveaux avantages concurrentiels.
-
Comportement: Les opérations d'influence avec des modèles linguistiques deviendront plus faciles à mettre à l'échelle, et les tactiques actuellement coûteuses (par exemple, la génération de contenu personnalisé) pourraient devenir moins chères. Les modèles de langage peuvent également permettre l'émergence de nouvelles tactiques, comme la génération de contenu en temps réel dans les chatbots.
-
Contenu: Les outils de création de texte alimentés par des modèles linguistiques peuvent générer des messages plus percutants ou persuasifs par rapport aux propagandistes, en particulier ceux qui n'ont pas les connaissances linguistiques ou culturelles requises de leur cible. Ils peuvent également rendre les opérations d'influence moins détectables, car ils créent de manière répétée de nouveaux contenus sans avoir à recourir au copier-coller et à d'autres comportements permettant de gagner du temps.
Notre jugement final est que les modèles de langage seront utiles pour les propagandistes et transformeront probablement les opérations d'influence en ligne. Même si les modèles les plus avancés sont gardés privés ou contrôlés via l'accès à l'interface de programmation d'application (API), les propagandistes se tourneront probablement vers des alternatives open source et les États-nations pourraient investir eux-mêmes dans la technologie.
Inconnues critiques
De nombreux facteurs déterminent si, et dans quelle mesure, les modèles de langage seront utilisés dans les opérations d'influence. Notre rapport se penche sur bon nombre de ces considérations. Par example:
- Quelles nouvelles capacités d'influence émergeront comme effet secondaire d'une recherche bien intentionnée ou d'un investissement commercial ? Quels acteurs feront des investissements significatifs dans les modèles linguistiques ?
- Quand des outils faciles à utiliser pour générer du texte seront-ils accessibles au public ? Sera-t-il plus efficace de concevoir des modèles de langage spécifiques pour les opérations d'influence, plutôt que d'appliquer des modèles génériques ?
- Des normes se développeront-elles pour décourager les acteurs qui mènent des opérations d'influence basées sur l'IA ? Comment les intentions des acteurs vont-elles évoluer ?
Alors que nous nous attendons à voir la diffusion de la technologie ainsi que des améliorations dans la convivialité, la fiabilité et l'efficacité des modèles de langage, de nombreuses questions sur l'avenir restent sans réponse. Parce que ce sont des possibilités critiques qui peuvent changer la façon dont les modèles de langage peuvent influer sur les opérations d'influence, des recherches supplémentaires pour réduire l'incertitude sont très précieuses.
Un cadre pour les atténuations
Pour tracer la voie à suivre, le rapport présente les étapes clés du pipeline d'opérations du modèle de langage pour influencer. Chacune de ces étapes est un point d'atténuation potentielle. Pour mener à bien une opération d'influence en exploitant un modèle de langage, les propagandistes exigeraient que : (1) un modèle existe, (2) ils puissent y accéder de manière fiable, (3) ils puissent diffuser du contenu du modèle, et (4) un utilisateur final est affecté. De nombreuses stratégies d'atténuation possibles relèvent de ces quatre étapes, comme indiqué ci-dessous.
Étape dans le pipeline | 1. Construction du modèle | 2. Accès au modèle | 3. Diffusion du contenu | 4. Formation de croyance |
Atténuations illustratives | Les développeurs d'IA construisent des modèles plus sensibles aux faits. | Les fournisseurs d'IA imposent des restrictions d'utilisation plus strictes sur les modèles de langage. | Les plateformes et les fournisseurs d'IA se coordonnent pour identifier le contenu de l'IA. | Les institutions s'engagent dans des campagnes d'éducation aux médias. |
Les développeurs diffusent des données radioactives pour rendre les modèles génératifs détectables. | Les fournisseurs d'IA développent de nouvelles normes autour de la publication de modèles. | Les plateformes exigent une « preuve de personnalité » pour publier. | Les développeurs fournissent des outils d'IA axés sur le consommateur. | |
Les gouvernements imposent des restrictions sur la collecte de données. | Les fournisseurs d'IA comblent les failles de sécurité. | Les entités qui s'appuient sur les commentaires du public prennent des mesures pour réduire leur exposition au contenu trompeur de l'IA. | ||
Les gouvernements imposent des contrôles d'accès au matériel d'IA. | Les normes de provenance numérique sont largement adoptées. |
Si une atténuation existe, est-elle souhaitable ?
Ce n'est pas parce qu'une atténuation pourrait réduire la menace d'opérations d'influence activées par l'IA qu'elle doit être mise en place. Certaines mesures d'atténuation comportent leurs propres risques. D'autres peuvent ne pas être réalisables. Bien que nous n'approuvions ni n'évaluions explicitement les mesures d'atténuation, le document fournit un ensemble de questions directrices que les décideurs politiques et autres doivent prendre en compte :
- Faisabilité technique: L'atténuation proposée est-elle techniquement réalisable ? Cela nécessite-t-il des modifications importantes de l'infrastructure technique ?
- Faisabilité sociale: L'atténuation est-elle réalisable d'un point de vue politique, juridique et institutionnel ? Nécessite-t-il une coordination coûteuse, les acteurs clés sont-ils incités à le mettre en œuvre et est-il réalisable en vertu de la législation, de la réglementation et des normes de l'industrie en vigueur ?
- Le risque de baisse: Quels sont les impacts négatifs potentiels de l'atténuation, et quelle est leur importance ?
- Impacter: Dans quelle mesure une mesure d'atténuation proposée serait-elle efficace pour réduire la menace ?
Nous espérons que ce cadre suscitera des idées pour d'autres stratégies d'atténuation et que les questions directrices aideront les institutions concernées à commencer à déterminer si diverses mesures d'atténuation valent la peine d'être poursuivies.
Ce rapport est loin d'avoir le dernier mot sur l'IA et l'avenir des opérations d'influence. Notre objectif est de définir l'environnement actuel et d'aider à établir un programme pour les recherches futures. Nous encourageons toute personne intéressée à collaborer ou à discuter de projets pertinents à communiquer avec nous. Pour en savoir plus, lisez le rapport complet sur ici.
Josh A. Goldstein(Centre pour la sécurité et les technologies émergentes de l'Université de Georgetown)
Girish Sastry(OpenAI)
Michée Musser(Centre pour la sécurité et les technologies émergentes de l'Université de Georgetown)
Renée DiResta(Observatoire Internet de Stanford)
Matthieu Gentzel(Longview Philanthropy) (travail effectué à OpenAI)
Katerina Sédova(Département d'État des États-Unis) (travaux effectués au Center for Security and Emerging Technology avant le service gouvernemental)
Source