


Imaginez un Surprise d'octobre pas comme les autres : une semaine seulement avant le 5 novembre 2024, un enregistrement vidéo révèle une rencontre secrète entre Joe Biden et Volodymyr Zelenskyy. Les présidents américain et ukrainien conviennent d'intégrer immédiatement l'Ukraine à l'OTAN dans le cadre du "protocole spécial d'adhésion d'urgence" et de se préparer à une frappe nucléaire contre la Russie. Soudain, le monde est sur le point d'Armageddon.
Alors que les journalistes pourraient souligner que un tel protocole n'existe pas et les utilisateurs de médias sociaux pourraient remarquer des qualités de jeu vidéo étranges de la vidéo, d'autres pourraient penser que leurs pires peurs ont été confirmés. Lorsque le jour du scrutin arrive, ces citoyens inquiets peuvent laisser la vidéo influencer leurs votes, ignorant qu'ils viennent d'être manipulés par une situation truquée, un événement qui ne s'est jamais produit.
Les deepfakes de situation représentent la prochaine étape des technologies qui ont déjà ébranlé la perception de la réalité par le public. Dans nos recherches au Projet DeFakemes collègues du Institut de technologie de Rochesterle Université du Mississippi, Université de Michigan et moi étudier comment les deepfakes sont fabriqués et quelles mesures les électeurs peuvent prendre pour s'en défendre.
Imaginer des événements qui ne se sont jamais produits
Un deepfake est créé lorsqu'une personne utilise un outil d'intelligence artificielle, en particulier l'apprentissage en profondeur, pour manipuler ou générer un affronterune voix ou - avec l'essor de grands modèles de langage comme ChatGPT—langage conversationnel. Ceux-ci peuvent être combinés pour former des "deepfakes de situation".
L'idée de base et la technologie d'un deepfake de situation sont les mêmes que pour tout autre deepfake, mais avec une ambition plus audacieuse : manipuler un événement réel ou en inventer un à partir de rien. Les exemples incluent des représentations de La promenade perp de Donald Trump et Trump étreignant Anthony Fauci, ce qui n'est pas arrivé. Le coup de câlin a été promu par un Compte Twitter associé à la campagne présidentielle du rival de Trump, Ron DeSantis. Un annonce d'attaque ciblant la campagne 2024 de Joe Biden publiée par le Comité national républicain était entièrement réalisé avec l'IA.
Au Projet DeFakenotre la recherche a trouvé que les deepfakes, y compris les situations, sont généralement créés par un mélange de ajouter un média à un autre; à l'aide d'une vidéo pour animer une image ou modifier une autre vidéo, surnommé le marionnettiste ; conjurer un morceau de média à l'existence, généralement en utilisant IA générative; ou une combinaison de ces techniques.
Pour être clair, de nombreux deepfakes de situation sont faits à des fins innocentes. Par exemple, Magazine Odyssée infinie produit de fausses images fixes à partir de films qui n'ont jamais été produits ou n'aurait jamais pu exister. Mais même les deepfakes innocents donnent une raison de s'arrêter, comme dans le cas de fausses photographies presque crédibles représentant le Apollo Moon landing en tant que production cinématographique.
Truquer une élection
Maintenant, mettez-vous à la place de quelqu'un qui essaie d'influencer les prochaines élections. Quelles sont les situations possibles que vous pourriez vouloir créer ?
Pour commencer, il importerait de savoir si vous vouliez incliner le vote vers ou à l'opposé d'un résultat spécifique. Peut-être dépeindriez-vous un candidat agissant héroïquement en écartant un piéton du chemin d'une voiture qui roule ou, à l'inverse, en faisant quelque chose d'offensant ou de criminel. Le format de la situation deepfake serait également important. Au lieu d'une vidéo, il pourrait s'agir d'une photographie, peut-être avec le flou et les angles qui simulent un appareil photo de smartphone ou le faux logo d'une agence de presse.
Votre public cible serait la clé. Plutôt que de viser l'électorat général ou la base d'un parti, vous pouvez cibler les théoriciens du complot dans les principales circonscriptions électorales. Vous pouvez présenter le candidat ou les membres de sa famille comme s'engageant dans une rituel sataniqueparticipant à un festival au exclusif et controversé bosquet bohèmeou ayant un rencontre secrète avec un extraterrestre.
Si vous en avez l'ambition et les capacités, vous pourriez même essayer de truquer l'élection elle-même. En juin 2023, les chaînes de télévision et de radio russes ont été piratées et diffuser un ordre de mobilisation complet par un deepfake du président russe Vladimir Poutine. Bien que cela soit plus difficile à faire lors d'une élection américaine, en principe, tout média pourrait être piraté pour diffuser des deepfakes de leurs ancres annonçant les mauvais résultats ou un candidat concédant.
Défendre la réalité
Il existe une variété de moyens technologiques et psychologiques pour détecter et se défendre contre les deepfakes de situation.
Sur le plan technologique, tous les deepfakes contiennent des preuves de leur véritable nature. Certains de ces signes peuvent être vus par l'œil humain - comme une peau trop lisse ou un éclairage ou une architecture étrange - tandis que d'autres peuvent être détectable uniquement par une IA de chasse aux deepfakes.
Nous construisons Fauxd'utiliser l'IA pour détecter les signes révélateurs de deepfakes, et nous nous efforçons de le préparer à temps pour les élections de 2024. Mais même si un détecteur de deepfake suffisamment puissant comme le nôtre ne peut pas être déployé d'ici le jour du scrutin, il existe des outils psychologiques que vous, l'électeur, pouvez utiliser pour identifier les deepfakes : connaissances de base, curiosité et scepticisme sain.
Si vous rencontrez un contenu médiatique sur une personne, un lieu ou un événement qui semble inhabituel, faites confiance à vos connaissances de base. Par exemple, dans un canular récent d'un incendie au Pentagonele bâtiment montré semble plus carré que pentagonal, ce qui pourrait être un cadeau.
Cependant, essayez de ne pas vous fier entièrement à vos connaissances de base, qui pourraient être erronées ou inégales. N'ayez jamais peur d'en savoir plus à partir de sources fiables, telles que des reportages vérifiés, des articles universitaires évalués par des pairs ou des entretiens avec des experts accrédités.
De plus, sachez que les deepfakes peuvent être utilisés pour tirer parti de ce que vous êtes enclin à croire à propos d'une personne, d'un lieu ou d'un événement. L'une des meilleures façons de gérer cela est de simplement soyez conscient de vos préjugés et soyez un peu prudent sur tout contenu médiatique qui semble les confirmer.
Même s'il devient possible de créer des deepfakes en situation parfaite, la crédibilité de leur sujet restera probablement leur talon d'Achille. Ainsi, avec ou sans solution technologique, vous avez toujours le pouvoir de défendre l'élection contre l'influence de faux événements.
Cet article est republié de La conversation sous licence Creative Commons. Lis le article original.
Citation: De fausses vidéos pourraient influencer l'élection présidentielle de 2024 - un chercheur en cybersécurité explique la situation deepfakes (2023, 17 juillet) récupéré le 18 juillet 2023 sur
Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.
Source