Suivez-nous

Décryptages

Deepfake : porno et usage de faux

Ricardo

Publié

le

Il fut un temps pas si lointain où, si vous fantasmiez sur une actrice de cinéma, une athlète célèbre ou une chanteuse, vous pouviez vous rendre sur un site de photomontages grossiers pour voir le visage de l’élue de votre queue incrusté à la truelle sur des images pornographiques. Le rendu était aussi ignoble que le procédé mais au moins le doute n’était jamais permis quant à l’authenticité des clichés. Cette ère des cheapfakes est désormais révolue. Place aux deepfakes, bien plus inquiétants et pernicieux…

La technologie deepfake, aussi appelée hypertrucage, videotox ou infotox, repose sur l’intelligence artificielle et permet de superposer de façon bluffante des fichiers audio et/ou vidéo sur d’autres. Apparue en 2016 avec l’hypertrucage audio, la BBC a fait dès 2017 la preuve de sa redoutable efficacité en diffusant un discours de Barack Obama indiscernable de la réalité. En automne de la même année, un utilisateur de Reddit publie sous le pseudonyme « Deepfakes » des vidéos pornographiques mettant en scène Gal Gadot, Daisy Ridley, Scarlet Johansson, Emma Watson ou encore Katy Perry. De plus en plus réalistes, ses créations font grand bruit et attirent l’attention des médias.

En février 2018, Reddit fait supprimer le compte, qui totalise alors plus de 90 000 abonnés. Peu après, Twitter et Pornhub lui emboitent le pas et interdisent la publication de deepfakes. À l’heure actuelle, la requête ne donne plus aucun résultat ni sur Pornhub ni sur Xhamster

Le site Xvideos quant à lui ne s’embarrasse pas de tant de morale et propose plus de 300 résultats, avec des trucages mettant en scène Elizabeth Olsen, les actrices de 2 Broke Girls (série éminemment populaire outre-Atlantique), Emilia Clarke et même Alexandria Ocasio-Cortez, femme politique américaine très engagée dans le combat féministe. 

Plus grave encore, des sites se sont spécialisés dans ces trucages abjects et proposent même des tutoriels pour aider les aspirants monteurs à réaliser leurs propres vidéos et, in fine, alimenter leurs pages.

Mais alors, pourquoi est-ce si grave ?

Il en va bien évidemment du consentement et de l’appropriation de l’identité d’une personne à des fins pornographiques et mercantiles, sans oublier que le deepfake facilite l’abus et les harcèlements envers les femmes. 

Un petit ami aigri de s’être fait larguer peut ainsi créer des vidéos X avec le visage de son ex et les publier sur Internet. Et on ne parle pas ici de montages minables faits sur Paint, très facilement identifiables comme des faux, mais bien de contenus troublants de réalisme. Avec plusieurs photos de la victime, des logiciels facilement accessibles et un ordinateur pourvu d’une puissance de calcul suffisante, n’importe qui peut ainsi réaliser de telles vidéos.

En outre, l’appareil législatif tarde à s’emparer du problème afin de punir les contrevenants. Il est relativement aisé de faire supprimer les vidéos mais il est encore plus aisé pour l’auteur de les republier sur d’autres sites. Surtout, selon les pays les textes sont soit inexistants soit flous sur la manipulation d’images visant à porter atteinte à une personne.

La résistance s’organise

Si le deepfake a beaucoup inquiété lors de son avènement pour les dangers politiques qu’il était capable d’occasionner (rien de plus facile que de créer une vidéo d’un adversaire politique en train d’étrangler des chatons tout en fredonnant des chants nazis), le fait est qu’il a surtout parasité l’industrie du X et est utilisé comme un moyen pour abuser et harceler la gent féminine. Plus de 90% des contenus utilisant cette technologie sont des vidéos pornographiques, et plus de 95% de ces contenus présentent des femmes, que ce soit pour créer des vidéos de personnes célèbres ou du revenge porn falsifié.

Deeptrace, une entreprise spécialisée dans les menaces posées par le deepfake, estimait, lors d’une  étude publiée en 2019, à environ 14 000 le nombre de vidéos de ce type présentes sur Internet, dont 800 sont hébergées par des tubes mainstream. Un chiffre qui a doublé depuis 2018.

Facebook, en collaboration avec Microsoft et le MIT, a lancé en 2019 le Deepfake Detection Challenge, un concours qui a pour objectif de détecter les deepfakes. Lui aussi basé sur le machine learning, l’outil parvient à l’heure actuelle à un taux de détection de 65%. Une première avancée dans la lutte contre ce mal pernicieux qui devra être suivie par une prise de conscience des pouvoirs publics.

 

 

 

Pornographe du phonographe

Populaire

Merci de désactiver votre bloqueur de publicité pour accéder à ce site.

ADBLOCK a cassé ce site en voulant supprimer son contenu publicitaire.
Désactivez ADBLOCK pour consulter nos articles.