De leur côté, des chercheurs de l’entreprise Nvidia, à la base spécialisée dans la puissance de calcul, ont construit leur propre outil de fabrication de «deep fake». Grâce à la technique des «réseaux adversatifs générateurs» (GAN), ils sont capables de mettre en concurrence deux algorithmes pour obtenir la meilleure imitation possible. L’un étant chargé de copier le style d’une vidéo en y ajoutant un visage tandis que l’autre juge si cette copie est crédible et si la réponse est non, tente de l’améliorer. D’autres technologies peuvent être utilisées dans l’amélioration des «deep fake». L’application Lyrebird développe par exemple son propre outil de clonage des voix alors que des travaux sont en cours sur le «Facial Reenactment», soit la capacité de reproduire à l’identique des expressions faciales. Des chercheurs de l’université de Berkeley ont aussi récemment partagé le fruit de leurs travaux sur le «motion transfer». Une technologie permettant de dupliquer les mouvements d’un corps sur un autre.
Grâce à l’ensemble de ces outils, le risque que la production de vidéos «deep fake» ne devienne une véritable industrie – comme l’ont été les fake news lors de la campagne présidentielle américaine de 2016 ou du référendum sur le Brexit – est réel. «On savait qu’on ne pouvait pas croire ce qu’on lisait. Maintenant, il ne faut pas croire ce qu’on entend et même ce qu’on voit de nos propres yeux» expliquait en août dernier sur les ondes de Radio Canada la spécialiste des transformations numériques Catalina Briceño. En septembre dernier, trois élus américains ont décidé de s’emparer de ce sujet pour en prévenir les effets néfastes à l’approche des élections de mi-mandat aux États-Unis. Ils ont voulu inscrire le «deep fake» sur la liste des menaces contre «la sécurité nationale». En France, le problème est aussi devenu un objet d’inquiétude. Un rapport sur la désinformation publié en septembre pointait le fait que ces vidéos «deep fake» pouvaient participer dans les prochaines années à une «atomisation extrême de l’information, avec la disparition ou la fragilisation des acteurs pouvant servir de tiers de confiance».
Tentatives de réponse
Pour contrer ces manipulations d’un nouveau genre, plusieurs institutions ont décidé de mettre en place leur propre outil de vérification. C’est notamment le cas du chercheur Vincent Nozick, membre du laboratoire d’informatique Gaspard-Monge qui a développé un programme: le «Mesonet» dont la mission est de repérer les «deep fake» en s’appuyant notamment sur le mouvement des paupières. Aux États-Unis, l’agence de recherche américaine de défense liée au Pentagone, la DARPA, a financé à hauteur de 68 millions de dollars des projets technologiques luttant contre les «deep fake». Les médias font aussi partie de ce combat pour détecter de potentiels faussaires. L’AFP est par exemple partenaire du projet européen InVid (pour In Video Veritas, NDLR) lancé en janvier 2016. Destiné aux journalistes, ce plug-in qui peut être téléchargé sur n’importe quel navigateur internet est censé les aider à repérer les vidéos truquées souvent partagées en masse sur les réseaux sociaux. Il permet notamment de savoir si une vidéo a été manipulée techniquement avant d’être mise en ligne. Mais des progrès peuvent encore être faits. Pour Solange Ghernaouti, l’idéal à terme serait d’avoir des images ou des vidéos numériques dotées de «tatouages électroniques», ce qui permettrait de vérifier «plus simplement et plus rapidement l’origine d’un contenu».