Deepfakes expliqué : l’intelligence artificielle qui rend les fausses vidéos trop convaincantes
voir c’est croire. Eh bien, c’était du moins le cas jusqu’à ce que nous réalisions que les gens peuvent manipuler des vidéos pour créer des canulars et réécrire l’histoire. Bien que nous ayons trouvé des moyens de démystifier la plupart des images de canular, il existe une technologie qui se développe si rapidement que nous ne saurons bientôt plus comment distinguer le vrai du faux.
En ce qui concerne les vidéos trafiquées, les deepfakes ont changé tout ce que nous pensions possible. Voici tout ce que vous devez savoir à leur sujet…
Qu’est-ce que le deepfake ?
Le terme deepfakes vient d’une combinaison des mots « apprentissage en profondeur » et « faux ». En effet, un logiciel d’intelligence artificielle formé à la synthèse d’images et de vidéos crée ces vidéos. L’IA peut superposer le visage d’un objet (source) sur la vidéo d’un autre objet (cible). Des formes de technologie plus avancées peuvent synthétiser un modèle humain entièrement nouveau en utilisant les gestes faciaux de la source et une image ou une vidéo de l’objet qu’ils souhaitent imiter.
La technologie peut créer des modèles faciaux à partir de données visuelles limitées, telles qu’une image. Cependant, plus l’IA doit traiter de données, plus les résultats seront réalistes.
C’est pourquoi les politiciens et les célébrités sont si faciles à cibler pour les deepfakes, car le logiciel peut utiliser tellement de données visuelles en ligne. Étant donné que les logiciels deepfake sont disponibles sur des plates-formes open source, les internautes s’améliorent constamment et s’appuient sur le travail des autres.
L’origine de la technologie deepfake AI
La technologie derrière les deepfakes a été développée à des fins multiples. Tout comme Photoshop, ce logiciel a des utilisations professionnelles, récréatives et amateurs. Tout comme Photoshop, bien que les créateurs aient créé le logiciel sans malveillance, cela n’a pas empêché les gens de l’utiliser à des fins malveillantes.
Faire une vidéo du jour
La technologie d’échange de visage était initialement principalement utilisée dans l’industrie cinématographique. L’un des exemples les plus célèbres est le film de 2016 Rogue One : A Star Wars Story. Dans le film, les cinéastes ont utilisé l’échange de visages et la composition vidéo pour recréer le personnage du Grand Gouverneur Tarkin. Une version plus jeune de la princesse Leia a également été créée dans le film. Dans les deux cas, le modèle de visage de l’acteur original a été superposé au cascadeur.
Des applications comme Snapchat utilisent également la technologie d’échange de visage pour créer des filtres intéressants pour les utilisateurs. Les développeurs derrière ces applications améliorent continuellement la détection et le suivi des visages pour appliquer ces filtres plus efficacement.
Pendant ce temps, d’autres ont développé des outils de composition vidéo pour créer des hologrammes à des fins éducatives. Par exemple, un projet a développé un logiciel de synthèse vidéo et faciale afin que les témoignages de survivants de l’Holocauste puissent être présentés sous forme d’hologrammes interactifs dans les musées.
Pourquoi les deepfakes rendent les gens nerveux
Lorsque les gens se rendent compte que les escrocs et les farceurs utilisent Photoshop pour créer de fausses images, nous devons être plus sceptiques quant à ce que nous croyons être des preuves. Heureusement, il existe de nombreuses façons de détecter si une image est fausse, même à l’œil nu.
Au-delà de cela, la création d’images modifiées de manière convaincante dans Photoshop demande relativement beaucoup de travail. Ce n’est pas n’importe qui qui peut assembler deux images et les rendre réalistes.
Mais les deepfakes sont différents. L’apprentissage automatique facilite la vie, mais dans ce cas, il facilite la contrefaçon. Tout d’abord, le logiciel est complet et gratuit. Par exemple, FakeApp est un choix populaire pour créer des deepfakes. Vous n’avez pas besoin de compétences avancées pour appliquer le changeur de visage, le logiciel le fera pour vous.
Alors que l’intelligence artificielle et l’apprentissage en profondeur contribuent à créer des deepfakes, la technologie s’améliore également et devient plus convaincante à un rythme étonnant. Il ne faudra pas longtemps avant que ces modifications soient invisibles à l’œil nu.
Dans un monde criblé de fausses nouvelles, convaincre les deepfakes peut s’avérer être une force chaotique contre ce que nous pensons être vrai.
L’essor des deepfakes s’est également produit à un moment où la synthèse vocale par IA se développait également rapidement. Non seulement l’IA peut générer de fausses vidéos, mais elle peut également générer des modèles de parole pour les gens.
Cela signifie que vous n’avez pas besoin d’un imitateur pour donner l’impression qu’un politicien fait une déclaration scandaleuse. Vous pouvez entraîner l’IA à imiter sa voix.
Conséquences des Deepfakes
Les gens ont utilisé des deepfakes à des fins malveillantes. Les gens utilisent souvent FakeApp pour créer de fausses vidéos d’actrices célèbres travaillant sur du contenu pour adultes.
Gal Gadot, Daisy Ridley et Emma Watson ne sont que quelques-unes des actrices ciblées dans de fausses vidéos pour adultes. Ces deepfakes transforment les visages d’actrices en vidéos de stars de cinéma pour adultes.
Alors que certaines plateformes et certains sites pour adultes interdisent déjà de telles vidéos, d’autres apparaissent chaque jour. En fait, certains sites Web se spécialisent dans la création de vidéos pour adultes de célébrités deepfake en fonction des demandes des utilisateurs.
Dans la plupart des pays, il n’y a pas de lois traitant de ce contenu, ce qui le rend difficile à contrôler.
Bien que nous soyons encore à une certaine distance des dystopies gouvernées par la désinformation et les fausses preuves vidéo que nous avons vues dans des films comme The Runner, nous ne connaissons déjà que trop bien les effets des fausses nouvelles.
Les deepfakes peuvent être un outil puissant pour diffuser des informations erronées. Personne n’a été accusé de crimes ou n’a simulé sa mort à l’aide de deepfakes, mais que se passe-t-il lorsqu’il est difficile de dire quelles vidéos sont réelles ?
Les conséquences des deepfakes à des fins politiques sont doubles. Premièrement, cela facilite la diffusion des fausses nouvelles. Les vidéos sont plus susceptibles que les mots ou les images de convaincre les gens que des choses fictives se sont réellement produites.
Les gens croient déjà aux gros titres de faux sites Web sans aucune preuve à l’appui de leurs histoires. Soudain, de fausses histoires auront des « preuves » de politiciens admettant des actes répréhensibles ou faisant des remarques scandaleuses.
D’autre part, les deepfakes peuvent également encourager les politiciens lorsqu’ils se dérobent à leurs responsabilités. Ils peuvent toujours facilement affirmer que l’enregistrement audio ou vidéo est en fait un deepfake.
Comment lutter contre les deepfakes ?
Alors que de nombreuses entreprises technologiques passent leur temps à maîtriser les deepfakes, beaucoup développent également des outils pour lutter contre les fausses vidéos malveillantes. L’IA peut lutter contre les pirates et la cybercriminalité, mais elle peut également être utile pour détecter la falsification de l’IA dans les vidéos.
La Fondation AI a créé un plugin de navigateur appelé Reality Defender pour aider à détecter le contenu deepfake en ligne. Un autre plugin, SurfSafe, effectue des vérifications similaires. Ces deux outils sont conçus pour aider les internautes à discerner la réalité de la fiction.
Les sites de vérification des faits comme Snopes se sont également étendus aux vidéos trafiquées publiquement. Mais ils ne disposent pas encore d’outils pour détecter automatiquement les deepfakes.
Même le département américain de la Défense a investi dans un logiciel pour détecter les deepfakes. Après tout, que se passerait-il si une vidéo convaincante d’un dirigeant mondial apparaissait en ligne déclarant la guerre à un autre pays ou lançant un missile ? Les gouvernements ont besoin d’outils pour vérifier rapidement la légitimité des vidéos.
Conséquences imprévues de l’apprentissage automatique
Il ne fait aucun doute que la technologie de l’intelligence artificielle et l’apprentissage automatique en profondeur ont amélioré nos vies à bien des égards. Mais la technologie a aussi des conséquences imprévues.
Alors que les mauvaises données sont un obstacle majeur pour les algorithmes d’apprentissage automatique, le facteur humain joue également un rôle. Il est difficile de prédire comment les gens pourraient utiliser certaines technologies à des fins malveillantes.
Vous pouvez en savoir plus sur l’apprentissage automatique et les erreurs passées dans notre guide des algorithmes d’apprentissage automatique et pourquoi ils se trompent. Bien que vous puissiez avoir du mal à identifier les deepfakes, vous pouvez éviter les fausses nouvelles avec une application d’actualités intelligente.
A propos de l’auteur