C'est une affaire qui illustre les risques soulevés par les progrès de l'intelligence artificielle. Début mars, une douzaine de jeunes filles scolarisées dans un collège privé du département de la Manche ont été victimes de deepfakes à caractère sexuel. D'après les éléments relayés dans la presse, ces fausses vidéo mettent en scène les visages des collégiennes sur des corps de femmes dénudées dans des séquences pornographiques et érotiques. Une enquête a été ouverte pour retrouver les auteurs de ces vidéos.
Ces vidéos sont ce qu'on appelle des deepfakes. Ce sont des trucages synthétiques, des montages très réalistes dans lesquels on remplace le visage d'une personne par une autre grâce à l'intelligence artificielle. L’idée, c’est de faire croire que quelqu’un a tenu des propos ou effectué des gestes qui n’ont en réalité jamais eu lieu. Ce phénomène est apparu en 2017 et s'est accéléré avec la mise à disposition des outils d'IA générative au plus grand nombre.
On parle souvent des dangers des deepfakes pour la démocratie, avec les risques de manipulation de l’opinion. On se rappelle de ces faux discours d'Emmanuel Macron, Barack Obama ou Joe Biden. Mais la réalité, c’est que 96% des deepfakes produits à travers le monde sont des montages pornographiques. Et ils visent quasi exclusivement les femmes
Aujourd'hui, avec les progrès de l'intelligence artificielle, il est très facile de superposer le visage d'une ex-copine ou d'une camarade de classe sur un extrait de film pornographique. Il n'est pas nécessaire d'avoir des heures de rush ou des centaines d'images. Une ou deux photos suffisent pour déshabiller quelqu’un grâce à des logiciels dédiés. Les auteurs de ce type de contenus s'échangent leurs créations et leurs méthodes pour obtenir les résultats souhaités comme on s'échangerait des recettes de cuisine sur des forums spécialisés et des messageries privées.
On ne connaît pas le nombre exact de deepfakes pornographiques qui sont produits chaque année. Le phénomène est encore très récent et difficile à quantifier. Une étude réalisée par une entreprise de cybersécurité américaine estimait que plus de 100.000 deepfakes avaient été mis en ligne l’an dernier sur des sites pour adultes. Mais cette estimation ne prend pas en compte ceux qui s’échangent directement sur les forums et les messageries.
Une certitude : le phénomène est en pleine progression. La production de deepfakes à caractère sexuel a été multipliée par cinq depuis 2019. Il touche d’abord les célébrités, les femmes qui s’exposent sur les réseaux sociaux. La chanteuse Taylor Swift, la vidéaste Lena Situations et la journaliste Salomé Saqué en ont notamment fait les frais ces derniers mois. Il vise aussi et surtout des anonymes. Les affaires se multiplient : des collégiennes dans la Manche, des adolescentes en Espagne, une commerçante dans l’Orne, une étudiante belge. Toutes les femmes sont concernées.
Les deepfakes à caractère sexuel sont aussi souvent utilisés dans les affaires de revenge porn et de sextorsion, le chantage pour obtenir des images intimes. Selon l’office des mineurs (Ofmin), les signalements de sextorsion ont été multipliés par 2 l’an dernier.
Quelques gestes peuvent aider à se prémunir de ce fléau, même s'il est impossible de le prévenir à 100%. La première chose à faire est d’éviter de publier trop de photos de soi sur les réseaux sociaux pour ne pas fournir de matière première aux auteurs de ces montages. Les parents doivent accompagner leurs enfants pour bien paramétrer leurs comptes sur les plateformes en privé afin de garder la maîtrise des contenus qu'ils publient et de leur audience.
Ensuite, il faut surtout s’en remettre à la loi. Depuis l'adoption de la loi visant à sécuriser l'espace numérique l'an dernier, la création d’un deepfake pornographique est passible de 3 ans de prison et de 75.000 euros d’amende. Mais les premières plaintes à ce sujet sont toujours en cours d'instruction. En réaction aux deepfakes qui ont visé des collégiennes dans la Manche récemment, des députés ont déposé une proposition de loi pour renforcer le régime de sanctions et aggraver les peines si les montages visent des mineurs de moins de 15 ans. Le texte entend aussi pénaliser la création et la mise à disposition de modèles d'intelligence artificielle dédiés à la création de contenus pédocriminels.
Et si vous êtes un jour dans cette situation, l’important est de signaler les contenus aux plateformes et de faire des captures d’écran pour collecter des preuves à transmettre aux policiers. Des associations spécialisées comme Stop Fisha, Point de Contact ou le 3018 peuvent aussi vous venir en aide pour faire disparaître les contenus.
Bienvenue sur RTL
Ne manquez rien de l'actualité en activant les notifications sur votre navigateur
Cliquez sur “Autoriser” pour poursuivre votre navigation en recevant des notifications. Vous recevrez ponctuellement sous forme de notifciation des actualités RTL. Pour vous désabonner, modifier vos préférences, rendez-vous à tout moment dans le centre de notification de votre équipement.
Bienvenue sur RTL
Rejoignez la communauté RTL, RTL2 et Fun Radio pour profiter du meilleur de la radio
Je crée mon compte