1. Accueil
  2. Actu
  3. Tech
  4. Les "deepfakes", ces manipulations vidéo toujours plus vraies que nature
2 min de lecture

Les "deepfakes", ces manipulations vidéo toujours plus vraies que nature

Il y aurait aujourd'hui plus de 145.000 "deepfakes" en ligne, contre 8.000 en 2018. De plus en plus crédibles, et de plus en plus faciles à réaliser, parfois à partir d'une seule image, ou de 5 secondes de son. Le "Point" se penche sur le phénomène.

DEEPFAKE : LES VISAGES DU DANGER
DEEPFAKE : LES VISAGES DU DANGER
Crédit : RTL
Les "deepfakes", toujours plus vrais
03:29

Plongeons dans le monde inquiétant des "deepfakes". Vous les connaissez forcément si vous regardez Nicolas Canteloup chaque soir sur TF1, c’est ce qui lui permet de se confondre avec les personnes qu’il imite. C'est aussi ce qui permet de remplacer un acteur mort dans un film déjà tourné.

"Deepfake", c’est l'utilisation du deep learning, une technique d’intelligence artificielle, pour faire du faux, du fake. Ces manipulations vidéo sont de plus en plus nombreuses. Il y aurait aujourd'hui plus de 145.000 hypertruquages en ligne, contre 8.000 en 2018. Le Point se penche cette semaine sur ce phénomène.

Dans ces tricheries à grande échelle, les chefs d'État sont particulièrement visés. L’une des vidéos les plus connues en France, est un faux Emmanuel Macron exactement semblable au vrai, annonçant la guerre nucléaire dans un discours truffé de double sens qui met une fausse Brigitte en émoi. Vidéo visionnée 1.7 million de fois sur YouTube. Elle date de l’an dernier, et la technologie progresse sans arrêt. 

Un danger pour les démocraties

Avant, il fallait analyser des dizaines d’heures de vidéo avant de pouvoir reproduire fidèlement un visage. Aujourd’hui, une seule image peut suffire : un réseau de neurones artificiels génère une vidéo et un second réseau corrige de façon ultra-précise, il prend en compte la couleur des vaisseaux sanguins, le clignement des yeux ou encore la manière de redresser son dos. 

À écouter aussi

Mais pour réussir un "deepfake", il faut aussi manipuler le son, et c'est souvent plus compliqué que l'image. Pour modéliser une voix de synthèse la plus naturelle possible, les chercheurs s’appuient sur la voix d’origine, l’intelligence artificielle et la linguistique appliquée. Il y a quelques mois, une équipe américaine a réussi à cloner une voix réelle en écoutant cinq petites secondes seulement d’une phrase. 

Dans toutes les démocraties, les experts s’inquiètent des conséquences potentielles. Que se passerait-il si l’une de ces fausses vidéos était publiée sur Internet à quelques heures de l’ouverture des bureaux de vote ? En France, récemment, on a vu apparaître ceci sur Twitter : une fausse Marine Le Pen voilée qui annonce en arabe l’établissement de la charia. 

Comment les détecter ?

Là, évidemment, c’est énorme. Mais avec un message plus subtil, ça passe. C’est un tel souci que le Congrès américain vient de lancer un appel à projets pour pouvoir démonter systématiquement ces trucages. En attendant le remède miracle, la contre-attaque s’organise. 

Puisqu'on apprend aux ordinateurs à créer des trucages, on peut aussi leur apprendre à les repérer. "Certains signes sont assez simples à voir", dit un chercheur en informatique, comme par exemple le 'warping', la trace floue autour du visage, ou encore les erreurs de couleur."

On appelle aussi à la rescousse les sciences comportementales pour travailler sur la cohérence du discours. C’est intéressant, mais ce n'est pas infaillible, parce que tout dépend du contexte. 

Bientôt indétectable ?

Par exemple, un "deepfake" de Mark Zuckerberg qui dirait qu’il “nous contrôle” grâce aux données qu’il recueille sur nous, ça semblerait crédible. Pourtant, il ne l’a jamais dit. La solution passe peut-être par les mathématiques, qui permettent de détecter les altérations d'une vidéo. Mais peut-être qu'un jour, les "deepfakes" seront devenus mathématiquement indétectables.

Une bonne nouvelle dans tout ça ? Un ingénieur franco-américain vient de déposer un brevet pour identifier au plus tôt les "deepfakes", et pour ça il s’appuie sur un réseau d’experts. humains. Parce que parfois, flairer le mensonge, c'est juste une question d'instinct. 

La rédaction vous recommande
À écouter aussi

Commentaires

Afin d'assurer la sécurité et la qualité de ce site, nous vous demandons de vous identifier pour laisser vos commentaires.
Cette inscription sera valable sur le site RTL.fr.

Signaler un commentaire

En Direct
/