Fake porn, de l’autre côté de l’inquiétante vallée

L’« Uncanny valley ». C’est ce biais étrange qui veut que plus un être artificiel ressemble à un être humain, plus ses imperfections nous paraissent monstrueuses, profondément contre-nature. Voyez les poupées pour enfants qui crient et qui pleurent, ces ersatz de bébés qui ressemblent tous à l’abominable Chucky. Voyez ces humanoïdes des foires à la robotique, avec leur diction parfaite, leurs yeux qui ne cillent pas et leurs regards vides. Voyez, enfin, les poupées sexuelles, aux physiques stratosphériques et à l’expression froide et morbide. Le concept s’est bien évidemment étendu aux représentations virtuelles pour décrire aussi le geste erratique ou l’articulation désynchronisée des personnages dits photo-réalistes, et l’ « Uncanny valley » était le destin qu’on promettait, il y a peu, au fake porn. C’était sans compter sur les avancées prodigieuses, et franchement inquiétantes, qu’a connu la discipline en quelques mois.

L’année dernière, grâce à un algorithme de machine learning open source, en l’occurence TensorFlow, l’outil développé par Google, et à l’infinie banque d’images que propose le même Google, un petit génie de l’informatique, un certain deepfakes, concevait une méthode pour « greffer » numériquement le visage d’actrices célèbres, et tout public, sur le corps de performeuses X dans des séquences pornographiques. D’aucuns saluaient alors l’ingéniosité du procédé, l’incongruité du hobby et le rendu respectable, mais « uncanny », des productions. 

Trois mois plus tard, l’heure est à l’inquiétude. Et si ce procédé gentiment fantasque, ce fétichisme relativement marginal était une boîte de Pandore ? Le propre du machine learning est de tendre à la singularité, le point technologique à partir duquel les capacités de traitement des machines seraient si puissantes que leur mise en commun entraînerait un progrès technologique si rapide qu’on ne pourrait le concevoir. À l’échelle du porno généré par ordinateur, c’est ce qui vient d’arriver. 

Car deepfakes, fort d’une couverture médiatique avantageuse, a fait des émules, et l’un de ses disciples a même mis en ligne FakeApp, une application clé en main et libre d’accès, pour que quiconque avec une machine solide, même dépourvu de connaissances informatiques de haute volée, puisse réaliser ses propres falsifications. En outre, par son usage concerté, la technique s’est fortement améliorée. Adieu les glitchs, retards d’animation et autres bugs des débuts. Dorénavant, les meilleures réalisations sont criantes de réalisme. On a pratiquement franchi la fameuse vallée.

Emma Watson, victime de deepfake

Le trucage vidéo de haut niveau n’est alors plus l’apanage d’énormes studios d’effets spéciaux. Et le fait qu’un outil si puissant soit accessible au plus grand nombre est, d’un point de vue créatif, proprement fantastique. C’est aussi, il faut bien l’admettre, la porte ouverte à un fantasme collectif très longtemps refoulé, celui de voir ses icônes, ses égéries du cinéma traditionnel se glisser dans la peau d’actrices porno, pour rejouer nos petits scénarios personnels. Et si la dimension pornographique de cette technologie devait se limiter à un usage privé, il n’y aurait, a priori, aucun problème, hormis peut-être un dilemme éthique entre soi et soi-même. Mais qu’en est-il du partage de ces contrefaçons porno ? Qu’en est-il du droit à l’image de celles (et ceux), qui sont et seront bientôt mises en scène, contre leur volonté, dans des séquences scabreuses ? 

Et nous n’avons pas encore abordé les usages franchement malveillants qu’offrent cette technologie, à commencer par le revenge porn et le cyber-bullying. Si les stars sont, au mieux, accommodées à ce genre de caricatures polissonnes, au pire, entourées d’une armée d’avocats qui veillent à la protection de leur image, ce n’est pas le cas de la majorité de la population. Qui plus est, la propension qu’a la population moderne à diffuser massivement ses clichés personnels sur les réseaux sociaux rend ces risques très concrets.

À plus grande échelle, c’est la sacro-sainte crédibilité visuelle toute entière qui est en jeu. En effet, à l’ère des « fake news », du renouveau des théories du complot, de l’information partielle segmentée, éclatée, il subsistait encore le poids des images. Même tronquée, une image filmée témoignait au moins d’un point de vue (au sens figuré comme littéral), pour le spectateur critique. Ce pourrait bientôt ne plus être le cas.

Ici, le président argentin Mauricio Macri, caricaturé en Hitler via FakeApp

Il est donc urgent de se munir d’outils techniques, légaux et surtout critiques pour se préserver de l’avènement du fake porn et de ses futures déclinaisons. 

Clint B

À propos de Clint B

Titulaire d'une maîtrise en cinéma, auteur d'une Porn Study à l'Université Paris VII Diderot, Clint B. est aujourd'hui chroniqueur de l'actualité porno.