Politique, porno, post-vérité: deepfake partout, justice nulle part

0
827

Si l’on parle beaucoup des saisissants deepfakes avec un faux Emmanuel Macron et une vraie Bribri Lahaie dans un court remixé par un youtubeur et d’un faux Tom Cruise sur Tiktok, ce n’est pas la première fois que l’on assiste à des vidéos aussi troublantes de réalisme. Petit historique en accéléré.

CREATION. À l’origine des deepfakes, il y a une technique inventée en 2014 par le chercheur Ian Goodfellow: les GAN (Generative Adversarial Networks ou réseaux antagonistes génératifs). La légende veut qu’après une dispute entre chercheurs avinés dans un bar de Montréal (un peu comme dans Drunk de Thomas Vinterberg), ce jeune doctorant ait imaginé cette méthode pour apprendre aux intelligences artificielles à comprendre les images sans intervention humaine. Soit un algorithme qui tente de générer une image réaliste d’un objet, tandis qu’un autre essaye de déterminer si ladite image est fausse; les deux s’entraînant ainsi mutuellement pour s’améliorer dans une sorte de jeu. Un fabuleux joujou monstre ayant donné naissance au Portrait d’Edmond de Belamy, impression sur toile, résultat du travail de programmation et de mise en forme de trois Français, artistes et chercheurs en IA et membres du collectif Obvious et… première œuvre d’art produite par un logiciel d’intelligence artificielle à être présentée dans une salle des ventes. Le portrait d’un personnage fictif vendu 432.500 dollars chez Christie’s le 

Deux ans plus tôt, en avril 2016, un “nouveau Rembrandt” est rendu public, sauf que ce n’en est pas un. Il s’agit de l’œuvre d’un programme créé par une équipe de Microsoft après l’analyse statistique de centaines de portraits de l’artiste. Du lard, mon cochon! Et en juin de la même année, le site Ars Technica ­éditait Sunspring, un court-métrage avec Thomas Middleditch, héros de la série Silicon Valley, dont le scénario était écrit par une IA.

OBAMA. Dans l’Histoire du deepfake, on se souvient de cette vidéo de 2018 dans laquelle des termes injurieux à l’égard de Donald Trump étaient mis dans la bouche de Barack Obama. Très vite, le subterfuge est révélé: il s’agit d’un montage d’images réalisé avec l’aide du cinéaste Jordan Peele et d’une intelligence artificielle spécialisée dans les deepfakes.

Avec les progrès de la recherche en intelligence artificielle, la possibilité de fabriquer des faux prend un tournant. En 2017, des informaticiens de l’Université de Washington ont produit une vidéo d’Obama qui montrait un programme qu’ils avaient développé, capable de “transformer des clips audio en une vidéo réaliste et synchronisée sur la personne qui prononce ces mots”. Un seuil a été franchi.

ZAO. En 2019, les Internets se passionnent pour l’application mobile chinoise de trucage vidéos, Zao (propriété de la populaire application chinoise de rencontres Momo, cotée au Nasdaq), permettant de placer son visage à la place de celui de stars de cinéma mais ayant suscité un tollé en raison d’atteintes potentielles à la vie privée. Un peu d’éthique, que diable. Même avec les arts.

DEEPNUDE. D’autres applications défrayent également la chronique, comme, beaucoup plus préoccupant, les applis pour smartphone qui servaient à “déshabiller” des personnes à l’instar de “DeepNude”, créé en 2019 à des fins de “divertissement“. La presse américaine, dont le Washington Post, avait alors montré de façon terriblement efficace que l’application pouvait servir à prendre une femme en photo et en tirer une autre image, avec seins et sexe en lieu et place des vêtements, grâce à l’intelligence artificielle. Les algorithmes ont ainsi stocké d’innombrables clichés de corps féminins dénudés pour créer des images fausses, mais très crédibles. Une application qui n’existait qu’en version féminine.

INSTANT X. Deepfakes est également le nom du développeur qui, le premier, a posté, fin 2017, des vidéos truquées à caractère pornographique sur le forum Reddit. Des sites pornos comme YouPorn ou Pornhub les ont rapidement interdit début 2018. Mais, en octobre 2019, l’entreprise néerlandaise Deeptrace, spécialisée dans les risques en ligne, comptabilisait 15.000 vidéos fake porn en circulation sur internet.

ZUCKERBERGXPLOITATION. Autre application: Spectre qui, en 2019, balançait, avec l’aide de l’agence de publicité Canny, une vidéo truquée de Mark Zuckerberg: “Imaginez ça une seconde: un homme avec le contrôle total des données volées de milliards de personnes, leurs secrets, leurs vies, leur avenir. Je dois tout cela à Spectre. Spectre m’a montré que quiconque contrôle les données contrôle l’avenir”, dit le “faux” Mark Zuckerberg dans cette courte vidéo postée par l’artiste britannique Bill Posters (un pseudo) pour promouvoir son projet qui, par l’absurde, veut dénoncer les dérives des géants technologiques. A ses côtés, l’artiste Daniel Howe.

QUID DU FUTUR?

Alors que tout le monde s’est amusé sur son smartphone en 2020 avec Reface, application de “face swap” vous permettant d’intégrer votre visage à des GIF’s, pour vous transformer en célébrités ou personnages de films (et vous donnant donc l’illusion d’être Britney Spears dans son clip Baby One More Time), sachez que d’autres découvertes vous attendent dans un avenir très proche. En janvier 2021, un labo d’innovation de Samsung a présenté une technologie de création d’avatars humains numériques baptisés Neons. Core R3, la plateforme technologique qui génère et anime ces avatars, crée les contenus en temps réel, au fur et à mesure, à partir de rien, comme un humain peut imaginer une personne qui n’existe pas en réalité: Technologiquement, Core R3 peut créer un Neon qui vous ressemble et ressemble à votre voix explique Pranav Mistry, le patron de Star Labs, qui rêve d’“humains artificiels” capables de rendre le monde meilleur dans un entretien à l’AFP. “Si vous voulez faire un deepfake, si vous voulez manipuler, bien sûr que la plateforme peut le faire. Mais à ce stade ou dans le futur, il est techniquement impossible d’avoir un Neon qui sera exactement comme vous, qui aura vos caractéristiques et votre personnalité et votre façon de sourire. La plateforme combine plusieurs technologies, y compris l’apprentissage automatisé, qui est une technique d’intelligence artificielle, et des capteurs qui permettent aux avatars de comprendre les humains et de s’adapter. Elle est formée non pas à reproduire un humain mais aux apparences des humains, à leurs comportements, à leurs manières de parler ou de sourire différemment selon les circonstances”.

Au final, comme toujours avec ce genre de questionnement sur le potentiel néfaste de telles novations, une seule et même réponse, convenue, vous attend: l’intelligence artificielle a des bons et des mauvais côtés! Prenez n’importe quelle technologie, si vous la mettez sous pression ou si vous la placez dans certaines conditions, ça peut exploser. La fusion nucléaire peut servir aussi bien à fabriquer la bombe atomique qu’à fournir de l’énergie qui permet d’allumer la lumière à la maison. Pour autant, philosophiquement, moralement, éthiquement, on en est où? “Je pense sincèrement qu’il faut que la loi encadre ces technologies” précise Chris Umé, derrière le compte DeepTomCruise à 20 Minutes. “Il y aura toujours des gens pour les utiliser de façon malveillante et il faut s’en préoccuper. C’est vrai pour toutes les technologies. Je ne crois pas qu’il faut interdire les deepfakes, car il y aura toujours des façons créatives de les utiliser. Il faut réfléchir à un système de détection, les labelliser, peut-être. Je pense que les journalistes ont un rôle important à jouer pour confirmer les sources, dire qu’une chose est vraie. Il y a vingt ans, quand Photoshop est arrivé, les gens ne se rendaient pas compte qu’on pouvait retoucher des images. Aujourd’hui, tout le monde le sait. Si mon travail permet une prise de conscience à travers ces vidéos, cela me rend heureux. Mais je suis un simple artiste.”

Pour French Faker, qui est derrière les deepfakes de l’émission de Canteloup sur TF1, “On n’en est qu’au début”, dit-il à La Dépêche, évoquant la nécessité d’une charte éthique et de signatures numériques pour éviter, à terme, les dérives. “À l’avenir, le deep fake pourra décupler le potentiel créatif des vidéastes. On pourra ressusciter des personnes décédées, créer une fiction avec des personnages réels, bref faire faire ce qu’on veut à une personne (…) Chaque image de nous qui circule sur internet peut être utilisée à des fins non éthiques, et nous rendre victimes d’un deepfake” ajoute-t-il, souhaitant garder son anonymat. On comprend mieux pourquoi les Daft Punk tenaient absolument à garder leurs casques, ces grands malins! Le next step du deepfake sera-t-il comme on le voit au cinéma? Plutôt Her de Spike Jonze (notre solitude peuplée par les images) ou plutôt Strange Days de Kathryn Bigelow (trafic de clips virtuels contenant des expériences humaines)? Comme dans un épisode interactif de Black Mirror, on vous laisse choisir.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici