Voir c’est croire? Bousculade mondiale pour lutter contre les deepfakes
Voir c’est croire? Bousculade mondiale pour lutter contre les deepfakes

Un téléphone montre une déclaration du chef de la politique de sécurité de Meta devant une fausse vidéo du président ukrainien Volodymyr Zel
Un téléphone montre une déclaration du chef de la politique de sécurité de Meta devant une fausse vidéo du président ukrainien Volodymyr Zelensky appelant ses soldats à déposer les armes.

Des chatbots débitant des mensonges, des applications d'échange de visage créant des vidéos porno et des voix clonées fraudant des millions d'entreprises - la ruée est en cours pour freiner les deepfakes d'IA qui sont devenus un super diffuseur de désinformation.

L'intelligence artificielle redéfinit le proverbe "voir c'est croire", avec un déluge d'images créées à partir de rien et des gens montrés en train de dire des choses qu'ils n'ont jamais dites dans des deepfakes d'apparence réelle qui ont érodé la confiance en ligne.

"Beurk. (Certainement) pas moi", a tweeté le milliardaire Elon Musk l'année dernière dans un exemple frappant d'une vidéo deepfake qui le montrait faisant la promotion d'une arnaque à la crypto-monnaie.

La Chine a récemment adopté des règles étendues pour réglementer les deepfakes, mais la plupart des pays semblent avoir du mal à suivre l'évolution rapide de la technologie, craignant que la réglementation puisse entraver l'innovation ou être utilisée à mauvais escient pour restreindre la liberté d'expression.

Les experts avertissent que les détecteurs de deepfake sont largement dépassés par les créateurs, qui sont difficiles à attraper car ils fonctionnent de manière anonyme en utilisant un logiciel basé sur l'IA qui était autrefois présenté comme une compétence spécialisée mais qui est maintenant largement disponible à faible coût.

L'année dernière, le propriétaire de Facebook, Meta, a déclaré avoir retiré une vidéo deepfake du président ukrainien Volodymyr Zelensky exhortant les citoyens à déposer leurs armes et à se rendre à la Russie.

Et la militante britannique Kate Isaacs, 30 ans, a déclaré que son "cœur s'est effondré" lorsque son visage est apparu dans une vidéo porno deepfake qui a déclenché un déluge d'abus en ligne après qu'un utilisateur inconnu l'a posté sur Twitter.

"Je me souviens juste avoir eu l'impression que cette vidéo allait aller partout, c'était horrible", a déclaré Isaacs, qui fait campagne contre la pornographie non consensuelle, cité par la BBC en octobre.

Le mois suivant, le gouvernement britannique s'est inquiété des deepfakes et a mis en garde contre un site Web populaire qui "déshabille virtuellement les femmes".

"L'apocalypse de l'information"

En l'absence d'obstacles à la création de texte, d'audio et de vidéo synthétisés par l'IA, le potentiel d'utilisation abusive dans le vol d'identité, la fraude financière et la ternissure des réputations a déclenché une alarme mondiale.

Le groupe Eurasia a qualifié les outils d'IA "d'armes de perturbation massive".

"Les progrès technologiques de l'intelligence artificielle vont éroder la confiance sociale, renforcer les démagogues et les autoritaires, et perturber les entreprises et les marchés", a averti le groupe dans un rapport.

"Les progrès des deepfakes, de la reconnaissance faciale et des logiciels de synthèse vocale feront du contrôle de sa ressemblance une relique du passé."

Cette semaine, la startup d'intelligence artificielle ElevenLabs a admis que son outil de clonage de voix pouvait être utilisé à des "fins malveillantes" après que les utilisateurs aient publié un deepfake audio prétendant être l'actrice Emma Watson lisant la biographie d'Adolf Hitler "Mein Kampf".

Elon Musk a tweeté
Elon Musk a tweeté "Yikes. Def not me" à propos d'une vidéo deepfake de lui prétendument faisant la promotion d'une nouvelle arnaque à la crypto-monnaie.

Le volume croissant de deepfakes pourrait conduire à ce que l'agence européenne d'application de la loi Europol a décrit comme une "apocalypse de l'information", un scénario dans lequel de nombreuses personnes sont incapables de distinguer les faits de la fiction.

"Les experts craignent que cela ne conduise à une situation où les citoyens n'ont plus une réalité partagée ou ne crée une confusion sociétale sur les sources d'information fiables", a déclaré Europol dans un rapport.

Cela a été démontré le week-end dernier lorsque le joueur de la NFL Damar Hamlin s'est adressé à ses fans dans une vidéo pour la première fois depuis qu'il a subi un arrêt cardiaque lors d'un match.

Hamlin a remercié les professionnels de la santé responsables de son rétablissement, mais beaucoup de ceux qui croyaient aux théories du complot selon lesquelles le vaccin COVID-19 était à l'origine de son effondrement sur le terrain ont sans fondement qualifié sa vidéo de deepfake.

'Super épandeur'

La Chine a appliqué le mois dernier de nouvelles règles qui obligeront les entreprises offrant des services de contrefaçon à obtenir la véritable identité de leurs utilisateurs. Ils exigent également que le contenu deepfake soit étiqueté de manière appropriée pour éviter "toute confusion".

Les règles sont intervenues après que le gouvernement chinois a averti que les deepfakes présentaient un "danger pour la sécurité nationale et la stabilité sociale".

Aux États-Unis, où les législateurs ont fait pression pour qu'un groupe de travail contrôle les deepfakes, les militants des droits numériques mettent en garde contre les excès législatifs qui pourraient tuer l'innovation ou cibler les contenus légitimes.

L'Union européenne, quant à elle, est enfermée dans des discussions animées sur sa proposition de "loi sur l'IA".

La loi, que l'UE s'empresse d'adopter cette année, obligera les utilisateurs à divulguer les deepfakes, mais beaucoup craignent que la législation ne s'avère édentée si elle ne couvre pas le contenu créatif ou satirique.

"Comment rétablir la confiance numérique avec la transparence ? C'est la vraie question en ce moment", a déclaré à l'AFP Jason Davis, professeur-chercheur à l'université de Syracuse.

"Les outils (de détection) arrivent et ils arrivent relativement rapidement. Mais la technologie évolue peut-être encore plus vite. Donc, comme la cybersécurité, nous ne résoudrons jamais cela, nous espérons seulement suivre le rythme."

Beaucoup ont déjà du mal à comprendre les avancées telles que ChatGPT, un chatbot créé par la société américaine OpenAI qui est capable de générer des textes étonnamment convaincants sur presque tous les sujets.

Dans une étude, le chien de garde des médias NewsGuard, qui l'a appelé le "prochain grand super diffuseur de désinformation", a déclaré que la plupart des réponses du chatbot aux invites liées à des sujets tels que COVID-19 et les fusillades dans les écoles étaient "éloquentes, fausses et trompeuses".

"Les résultats confirment les craintes … sur la façon dont l'outil peut être transformé en arme entre de mauvaises mains", a déclaré NewsGuard.

© 2023 AFP

Citation: Voir c'est croire? ruée mondiale pour lutter contre les deepfakes (2023, 2 février) récupéré le 2 février 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top