
Regarder une vidéo de formation présentant une version deepfake de vous-même, par opposition à un clip mettant en vedette quelqu'un d'autre, rend l'apprentissage plus rapide, plus facile et plus amusant, selon une nouvelle recherche menée par le centre de recherche REVEAL de l'Université de Bath.
Cette découverte a été observée au cours de deux expériences distinctes, l’une explorant l’entraînement physique et l’autre impliquant la prise de parole en public. L'ouvrage est publié dans la revue Actes de la conférence CHI 2023 sur les facteurs humains dans les systèmes informatiques.
Un deepfake est une vidéo dans laquelle le visage ou le corps d'une personne a été modifié numériquement pour ressembler à quelqu'un d'autre. Cette technologie fait l’objet d’une presse très négative en raison de sa capacité à diffuser des informations politiques erronées et à développer de manière malveillante des contenus pornographiques superposant le visage d’une personne sur le corps d’une autre. Cela constitue également une menace existentielle pour les professionnels des industries créatives.
Le Dr Christof Lutteroth et le Dr Christopher Clarke, tous deux du Département d'informatique de Bath et co-auteurs de la nouvelle étude, affirment que leurs résultats présentent deux cas d'utilisation positifs pour les deepfakes, et espèrent que leurs résultats catalyseront davantage de recherches sur les façons dont les deepfakes peuvent être appliqué pour faire le bien dans le monde.
"Les deepfakes sont beaucoup utilisés à des fins néfastes, mais nos recherches suggèrent que FakeForward (le nom utilisé par les chercheurs pour décrire l'utilisation des deepfakes pour enseigner une nouvelle compétence) est une manière inexplorée d'appliquer la technologie et d'ajouter de la valeur à la vie des gens. en soutenant et en améliorant leurs performances », a déclaré le Dr Clarke.
Le Dr Lutteroth a ajouté : « D'après cette étude, il est clair que le deepfake a le potentiel d'être vraiment excitant pour les gens. En suivant un tutoriel dans lequel ils agissent comme leur propre tuteur, les gens peuvent immédiatement s'améliorer dans une tâche – c'est comme par magie.
Plus de répétitions, plus de plaisir
Pour l’expérience de fitness, les participants à l’étude ont été invités à regarder une vidéo d’entraînement présentant une imitation de leur propre visage collée sur le corps d’un pratiquant plus avancé.
Les chercheurs ont choisi six exercices (planches, squats, squats muraux, redressements assis, sauts squats et pompes), chacun ciblant un groupe musculaire différent et nécessitant différents types de mouvements.
Pour chaque exercice, les participants à l’étude ont d’abord regardé un didacticiel vidéo dans lequel un modèle démontrait l’exercice, puis ont essayé de répéter l’exercice eux-mêmes. Le modèle a été choisi à la fois pour ressembler au participant et pour le surpasser, même si son niveau de compétence était accessible au sujet du test.
Le processus de visionnage de la vidéo et d'imitation de l'exercice a également été réalisé à l'aide d'un instructeur deepfake, où le visage du participant était superposé sur le corps d'un modèle.
Pour les deux conditions, les chercheurs ont mesuré le nombre de répétitions, ou la durée pendant laquelle les participants étaient capables de faire un exercice.
Pour tous les exercices, quel que soit l’ordre dans lequel les vidéos ont été regardées, les participants ont obtenu de meilleurs résultats après avoir regardé la vidéo « d’eux-mêmes » qu’après avoir regardé une vidéo montrant quelqu’un d’autre.
"Deepfake était un outil vraiment puissant", a déclaré le Dr Lutteroth. "Immédiatement, les gens pouvaient faire plus de pompes ou quoi que ce soit qu'on leur demandait de faire. La plupart se sont également déclarés comme faisant l'exercice mieux qu'avec le didacticiel non-deepfake, et l'ont davantage apprécié."
Art oratoire
La deuxième étude FakeForward réalisée par la même équipe a révélé que les deepfakes peuvent améliorer considérablement les compétences d'une personne en tant qu'orateur public.
Lorsque le visage d'un orateur public compétent a été remplacé par celui d'un utilisateur, l'apprentissage a été considérablement amplifié, la confiance et la compétence perçue pour parler en public augmentant après avoir regardé la vidéo FakeForward.
De nombreux participants se sont sentis émus et inspirés par les vidéos FakeForward, disant des choses telles que « cela me donne beaucoup de force », « la vidéo deepfake me donne l'impression que parler n'est en fait pas si effrayant » et « quand je me suis vu debout là et en parlant, je me sentais plutôt fier de moi.
Préoccupations éthiques
En principe, il est déjà possible pour les particuliers de créer des vidéos FakeForward via des applications open source telles que Roop et Deep Face Lab, même si en pratique, un certain degré d'expertise technique est requis.
Pour se prémunir contre d’éventuelles utilisations abusives, l’équipe de recherche FakeForward a développé un protocole éthique pour guider le développement de vidéos deepfake « selfie ».
"Pour que cette technologie soit appliquée de manière éthique, les gens devraient uniquement créer des modèles d'eux-mêmes, car le concept sous-jacent est que ceux-ci sont utiles à la consommation privée", a déclaré le Dr Clarke.
Le Dr Lutteroth a ajouté : « Tout comme le deepfake peut être utilisé pour améliorer les « bonnes » activités, il peut également être utilisé à mauvais escient pour amplifier les « mauvaises » activités – par exemple, il peut apprendre aux gens à être plus racistes, plus sexistes et plus grossiers. , regarder une vidéo de ce qui semble être vous disant des choses terribles peut vous influencer plus que regarder quelqu'un d'autre dire ces choses. "
Il a ajouté : « De toute évidence, nous devons garantir que les utilisateurs n'apprennent pas de comportements négatifs ou nuisibles grâce à FakeForward. Les obstacles sont considérables mais pas insurmontables. »
Plus d'information: Christopher Clarke et al, FakeForward : Utilisation de la technologie Deepfake pour l'apprentissage Feedforward, Actes de la conférence CHI 2023 sur les facteurs humains dans les systèmes informatiques (2023). DOI : 10.1145/3544548.3581100
Citation: Deux expériences plaident en faveur de l'utilisation de deepfakes dans les vidéos de formation (6 octobre 2023) récupéré le 6 octobre 2023 sur
Ce document est soumis au droit d'auteur. En dehors de toute utilisation équitable à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.
Source