Après les fake news, la menace du «deep fake» prend de l’ampleur sur le web

Cette technologie “deep fake”consistant à remplacer le visage et la voix d’une personnalité dans une vidéo s’améliore de jour en jour. Aux États-Unis, certains élus la considèrent comme une «menace contre la sécurité nationale».

article d’Harold Grand  publié sur le figaro.fr, le 2 01 2019

L’actrice la mieux payée d’Hollywood, Scarlett Johansson, vient d’ajouter son nom à la liste des personnalités qui s’engagent contre le phénomène des «deep fake» – ces vidéos ultraréalistes dans lesquelles les visages et les voix de ceux qui apparaissent à l’écran sont modifiés. Dans une interview accordée au quotidien The Washington Post, l’actrice dont la tête a été utilisée dans des dizaines de vidéos pornographiques s’inquiète de la montée en puissance de ces technologies: «Les personnes vulnérables comme les femmes, les enfants, et les personnes âgées doivent prendre des précautions supplémentaires pour protéger leur identité et leur contenu personnel» déclare-t-elle.

La technologie «deep fake» s’est véritablement fait connaître sur le réseau social Reddit. En début d’année, un sujet thématique sur la plateforme dédiée à l’utilisation d’intelligence artificielle dans les films pornographiques a réuni jusqu’à 90.000 membres. Cette discussion faisait également l’éloge d’une application gratuite, simple d’utilisation baptisée «FakeApp» qui permettait à n’importe qui de s’essayer au «deep fake» sans avoir de formation préalable en informatique. Plusieurs internautes s’en sont ainsi servis pour créer des vidéos à caractère pornographique en y incrustant les visages de célébrités comme ceux de Jessica Alba ou de Daisy Ridley. En février, la plateforme avait décidé de sévir et de fermer cette discussion au motif qu’elle ne respectait pas ses règles internes en faisant la promotion de la «pornographie forcée».

» LIRE AUSSI – Avec l’intelligence artificielle, l’usurpation d’identité en ligne prend une autre dimension

Des technologies avancées

Au-delà des différentes polémiques liées aux contenus pornographiques, la technologie «deep fake» peut aussi être utilisée pour désinformer. Selon la professeur émérite en éthique Deborah Johnson, interrogée par Vice, «Nous arrivons au point où nous ne pouvons plus distinguer ce qui est réel de ce qui ne l’est pas (…) tout ce business de la confiance et de la faisabilité est mis à mal par cette technologie». Contactée par Le Figaro, Solange Ghernaouti, experte internationale en cybersécurité et cyberdéfense, souligne que le numérique entraîne une «dissociation entre le contenu et le support sur lequel il est diffusé. On est face à une information immatérielle, non palpable, qui peut être consultée à la fois sur smartphone ou dans le cloud par exemple. Chaque son, image ou vidéo peut ainsi être plus facilement manipulé» explique-t-elle.