Facebook chasse les deepfakes avant l’élection présidentielle US

Facebok a annoncé, le 7  janvier, vouloir réduire la visibilité des deepfakes – ces fausses vidéos truquées grâce à l’intelligence artificielle. Ce nouvel outil de désinformation est dans le viseur du  réseau social depuis septembre, alors que l’élection présidentielle américaine doit se dérouler en novembre prochain.

article par Anaïs Chérif publié sur le site latribune.fr le 7 01 2020

Facebook a débuté officiellement sa chasse aux deepfakes en septembre dernier, avec le lancement du « Deepfake Detection Challenge » à destination des entreprises du secteur et des universités. Le but : encourager la production de nouvelles recherches et la production d’outils en open source pour détecter les vidéos truquées. Ce projet, « soutenu par 10 millions de dollars de subventions », selon Facebook, regroupe des poids lourds comme Microsoft, Amazon, mais aussi le MIT et l’Université de Californie.

Contraction de « deep learning » (apprentissage profond, une forme d’intelligence artificielle) et fake (faux, en anglais), les deepfakes consistent à générer des fausses vidéos de personnes existantes, en reproduisant des voix à partir d’extraits ou en créant des textes par exemple.

Le potentiel destructeur de ces vidéos trafiquées avait été révélé au grand public en avril dernier par le media Buzzfeed. Sur cette vidéo, Barack Obama, en costume, prend la parole depuis son bureau. « Nous entrons dans une ère où nos ennemis peuvent faire croire que n’importe quelle personne peut dire n’importe quoi à n’importe quel moment, prévient-il d’un ton grave. Par exemple, ils pourraient me faire dire « le président Trump est une gigantesque sombre merde ». » C’est alors que l’écran se scinde en deux et que le comédien et réalisateur Jordan Peele apparaît, parfaitement synchronisé avec l’image de l’ancien président …

 

Aujourd’hui, Facebook accentue sa chasse aux deepfakes. « Si ces vidéos sont encore rares sur Internet, elles représentent un défi significatif pour notre industrie et pour la société au fur et à mesure que leur utilisation se développe », a écrit Monika Bickert, vice-présidente de la gestion des politiques mondiales chez Facebook, dans une note de blog publiée lundi 2 janvier.

La firme de Menlo Park va donc réduire la visibilité des contenus considérés comme deepfakes s’ils « ont été édités » d’une manière pouvant « induire en erreur un internaute en pensant qu’un sujet de la vidéo a dit des mots qu’il n’avait pas réellement prononcés ». Le contenu litigieux doit également être « un produit de l’intelligence artificielle […] qui fusionne, remplace ou superpose le contenu sur une vidéo, ce qui donne l’impression qu’elle est authentique », liste Monika Bickert.

Facebook va également sanctionner ces contenus, en empêchant leur monétisation via de la publicité. Ils seront également labellisés comme « fake news » pour les internautes susceptibles de consulter et partager ces vidéos.

« Si nous supprimions simplement toutes les vidéos manipulées signalées comme fausses par (nos équipes de modération), les vidéos seraient toujours disponibles ailleurs sur Internet ou sur l’écosystème des réseaux sociaux. En les laissant de côté et en les qualifiant de faux, nous fournissons aux gens des informations et un contexte importants », justifie Monika Bickert.

La modération, un jeu d’équilibriste pour Facebook

Le géant américain poursuit donc son jeu d’équilibriste concernant l’épineuse problématique de la modération des contenus sur sa plateforme : lutter contre la désinformation – notamment à l’approche de l’élection présidentielle américaine en novembre prochain -, tout en évitant les accusations de censure et d’atteinte à la liberté d’expression. Facebook, qui se revendique comme un réseau social, a toujours réfuté le statut d’éditeur et les responsabilités qui l’accompagne.

Dans la note de blog, l’entreprise de la Silicon Valley précise que ces nouvelles règles ne s’appliquent pas aux contenus « parodiques ou satiriques ». Pourtant, ces contenus sont souvent dans une zone grise pour les modérateurs, et se transforment en vrai casse-tête pour Facebook, qui devra décider in fine ce qui relève de l’humour ou de la désinformation.