Close

Les Deep Fake : arme de guerre de la désinformation ?

« 2019 will be the year that a malicious ‘deepfake’ video sparks a geopolitical incident. We predict that within the next 12 months, the world will see the release of a highly authentic looking malicious fake video which could cause substantial damage to diplomatic relations between countries. [1] »

Katja Bego, Chercheuse chez NESTA

Les deep fake, ou « hypertruquages », sont des techniques de synthèse d’image reposant sur les technologies de l’intelligence artificielle (IA) et permettant de reproduire ou de créer de toutes pièces des contenus vidéo et audio. Elles se distinguent donc des simples trucages, qui consistent à altérer une photo ou vidéo et peuvent être obtenus grâce à des logiciels de montage vidéo. Si lesprogrès récents et rapides de l’IA ont conduit à la généralisation de cette technologie, désormais largement utilisée dans des secteurs comme le cinéma ou les jeux vidéo, celle-ci peut également être exploitée à des fins malveillantes pour la production de contenus conçus pour tromper et manipuler, notamment dans le cadre des campagnes de fake news, informations mensongères diffusées dans ce but.

La multiplication et la sophistication des deep fake donne une dimension nouvelle aux fake news : l’accès généralisé à des applications dédiées permet désormais à tout individu de réaliser de telles vidéos et de les rendre virales en les publiant sur les réseaux sociaux pour les partager et les diffuser immédiatement à grande échelle, alors que dans le même temps les progrès de l’IA en augmentent le réalisme et l’impression de véracité. Les deep fake deviennent ainsi toujours plus proches de la réalité et résistantes à la détection, à tel point qu’elles alarment les autorités. Certains élus de la chambre des Représentants des États-Unis, considèrent même cette technologie comme une « menace contre la sécurité nationale »[2], craignant que les deep fake ne soient utilisés par des acteurs étrangers lors de prochaines élections.

Au-delà de leur utilisation dans le cadre de campagnes de dénigrement de candidats politiques et de manipulation des résultats, les deep fake pourraient aussi être employées à différents usages malveillants : opérations de déstabilisation, escroqueries, chantage à la fausse vidéo pornographique, manipulation des preuves de vidéosurveillance[3].

 

  1. Deep fake : les outils de la désinformation 

A.    Les fondements technologiques des Deep Fake.

L’utilisation de l’IA pour la production de vidéos mettant en scène des individus réels dans des situation créées de toutes pièces est déjà très répandue dans le monde du cinéma, des jeux-vidéo[4], de l’art et de l’information. Par exemple, l’agence de presse chinoise Xinhua a lancé en novembre 2018 un présentateur télé virtuel capable de lire les informations 24/24, montrant des discours réalistes, des mouvements des lèvres et des expressions faciales très proches de ceux des humains[5].

L’IA nourrit désormais également la fabrique de fake news, et à mesure que la recherche dans ce domaine progresse et que les techniques et technologies associées se démocratisent les deep fake deviennent à la fois plus accessibles et plus sophistiqués. Elles reposent depuis 2014 sur la technique des réseaux adverses générateurs (« GAN »), caractérisée par une architecture composée de deux réseaux de neurones mis en compétition : un réseau dit « générateur » qui crée un échantillon de données, et un autre réseau dit « discriminateur » qui tente de détecter si cet échantillon est originel ou s’il s’agit d’une création du réseau générateur. Le réseau « générateur » apprend à créer des designs de plus en plus réalistes et le « discriminateur » apprend à identifier de mieux en mieux les designs réels de ceux provenant du « générateur ». [6]

 

Le fonctionnement des GAN[7]

Les GANs supposent pour fonctionner la constitution préalable de banques d’images et de vidéos de référence qui, en fonction de l’objectif poursuivi, peuvent être de taille considérable. C’est d’ailleurs ce qui explique que les personnalités publiques sont très facilement la cible des deep fake, puisqu’elles sont exposées sur un grand nombre de supports images et vidéos.

L’avancée de la science permet également depuis peu de créer des vidéos à partir de toujours moins de données de base. La technologie Face2Face[8], par exemple, permet de créer de toutes pièces une nouvelle vidéo à partir de cinq minutes seulement de support vidéo initial. De même, il est désormais possible de s’appuyer sur une seule photographie pour produire une vidéo de façon réaliste[9]. Un des laboratoires d’IA de Samsung en Russie – Samsung AI Center – a récemment mis au point un système permettant de créer un clip vidéo à partir d’une image fixe. Après une phase de « méta-apprentissage » au cours de laquelle le logiciel observe de nombreuses vidéos pour comprendre les mouvements du visage, il applique cet apprentissage à une image fixe pour la faire se mouvoir et communiquer. L’exemple le plus probant est celui qui a permis d’animer La Joconde[10] :

 

B.    Vecteurs et diffusion et facteurs de démocratisation

Cette technologie est récemment devenue accessible à une population non initiée grâce à la multiplication d’applications dédiées[11] comme FakeApp[12] ou Deepfakeapp[13]. Des algorithmes[14] et des outils open source comme TensorFlow[15], outil d’apprentissage automatique développé par Google, permettent également de créer des deep fake et ont même donné naissance à une communauté de développeurs rassemblés autour de projets open source de ce type, contribuant ainsi à la banalisation des deep fake.

L’augmentation des contributions (« commits ») de type deep fake sur Github en 2018

Source : THE STATE OF DEEPFAKES: REALITY UNDER ATTACK, 2018_ Deeptrace 

De même, des groupes d’amateurs opérant sur Reddit – forum à l’origine de la diffusion des premiers deep fake pornographiques – rassemblent de nombreux créateurs-amateurs de deep fake qui échangent et partagent des outils et des techniques de réalisation[16].

C.    Les vecteurs de diffusion

Plusieurs types de vecteurs facilitent la diffusion des contenus trafiqués ou créés de toutes pièces : la presse populiste ou à idéologie contestataire, les réseaux sociaux dans leur ensemble, les sites d’hébergement de vidéos en ligne, les sites de désinformation sans contrôle d’instance éditoriale et qui peuvent être financés par des partis politiques ou des États, les forums de discussion[17], le darkweb, les messageries en ligne…. De même que la diffusion fake news est en effet très rapide dès qu’elle est publiée sur le web ou sur les réseaux sociaux, on peut imaginer qu’il en sera de même pour les deep fake. Par exemple, de nombreux internautes publient leurs propres vidéos amateurs de deep fake[18] sur le forum Reddit ; il est alors aisé de s’en emparer pour mener une campagne de désinformation, elle pourra le faire aisément.

Tous ces vecteurs constituent chacun un point de départ de diffusion de ces contenus, ceux-ci pouvant par la suite être relayés sur tous les autres supports. De même, les médias légitimes peuvent eux-mêmes relayer une fausse vidéo à leur insu, amplifiant ainsi l’impact et l’effet de celle-ci car lui donnant une réelle crédibilité[19] [20].

Cette multitude de vecteurs de diffusion permet une propagation extrêmement rapide et facile des fausses informations, et ce d’autant plus que le support vidéo jouit aujourd’hui d’une forte popularité et d’une réputation de légitimité et de crédibilité que n’ont plus les images, qui font historiquement l’objet de manipulation et des modifications. De fait, le niveau de sophistication des vidéos empêche, sans logiciel et à l’œil nu, de détecter s’il s’agit d’une version originale ou d’une vidéo modifiée, voire créée de toute pièce.

A cela peut s’ajouter une amplification de l’audience par des bots ou des réseaux de trolls. Dans certains cas, le “trolling” peut même être mené par les États, qui possèdent leurs propres « cybertroupes » dont la mission est de manipuler l’opinion publique via les réseaux sociaux[22]. Cette manipulation passe par la création de pages sur les réseaux sociaux, de faux comptes et de fausses pages ainsi que de messages attisant les polémiques.

 

  1. Protection de prévention

On peut craindre que le phénomène deep fake ne continue de s’accroître à mesure que les technologies sur lesquelles il repose se développent, et ne donne même lieu à une « course technologique » entre faussaires et fournisseurs de logiciels de détection.

Les moyens de lutte contre ce phénomène et les solutions permettant de s’en protéger sont encore largement insuffisants, ne serait-ce que parce que les technologies de détection sont encore trop peu développées. Face à ce phénomène encore très récent, certains chercheurs s’inquiètent par exemple du peu de références permettant aujourd’hui de fournir aux algorithmes des règles de détection fiables[24]. Cependant, la recherche avance et plusieurs sociétés se sont déjà lancées dans la création d’algorithmes de détection. On peut notamment citer les initiatives suivantes :

  • La détection des deep fake via la reconnaissance faciale, un projet de recherche mené par Symanthec Corporation et présenté au BlackHat de Londres en 2018.
  • Le logiciel de la start-up Truepic, qui permet de détecter les deep fake grâce à l’analyse de mouvements, comme le léger frottement des cheveux, le mouvement des oreilles ou encore le reflet de la lumière sur les yeux. La société procède aussi à des tests devant permettre de repérer la présence de sang dans le front d’une personne.
  • L’outil de détection MesoNet, qui étudie les altérations faciales, les incohérences au niveau des couleurs du visage ou les déformations de la vidéo (les techniques d’investigation d’images traditionnelles ne sont généralement pas bien adaptées aux vidéos en raison de la compression qui dégrade fortement les données). Ils se concentrent notamment sur les yeux, le nez ou la bouche, sur lesquelles sont détectées les irrégularités[25].
  • L’application Amber Authentificate, une solution d’authentification plus qu’un outil de détection, qui génère une emprunte unique, ou « hash », pour chaque vidéo tournée, et le stock dans la blockchain Ethereum pour vérifier que le contenu de la dite vidéo n’a pas été altéré.
  • Le programme Median Forensics (MediFor) de la DARPA[26], l’agence de recherche sur les technologies de pointe du Pentagone, qui finance des recherches ayant pour objectif la création d’un système automatisé d’identification des faux utilisés dans les campagnes de propagande ou les cas de chantage politique.
  • Les recherches du Rochester Institute of Technology, destinées à concevoir et évaluer certaines des premières approches de détection robuste et automatique de vidéos deepfake grâce à des informations visuelles audio et linguistique. Les vidéos seront étiquetées avec un «score d’intégrité» indiquant aux professionnels et aux consommateurs les cas où les médias ont pu être manipulés[27].

Toutefois, ce phénomène doit aussi être pris en compte au niveau de la prévention et de la remédiation (judiciaire, sociale, politique). Le rapport du CAPS et de l’IRSEM – Les manipulations de l’information, un défi pour nos démocraties[28] propose un certain nombre de recommandations applicables aux États, aux particuliers et aux entreprises, pour limiter la diffusion et l’impact des fake news, y compris des deep fake. De manière générale, les internautes doivent être conscients du risque de manipulation par les vidéos et sont encoyrager à utiliser les services de checking des journaux ou des réseaux sociaux, permettant de decrypter les fake news [29].

[1] 2019 sera l’année durant laquelle les vidéos malveillantes de type « deep fake » déclencheront un incident d’ordre géopolitique. Nous prévoyons qu’au cours des 12 prochains mois, le monde verra la publication d’une vidéo malveillante extrêmement réaliste qui pourrait causer des dommages considérables aux relations diplomatiques entre les pays. (https://www.nesta.org.uk/). Voir : https://s3.eu-west-2.amazonaws.com/rep2018/2018-the-state-of-deepfakes.pdf?fbclid=IwAR0LJOSHFh7-EL2DjaRqiFWVZwGA7SWlVkStUKp4Yu3dG62AJGpY4Xj4b2c – REPORT 2018 T H E S T A T E O F D E E P F A K E S : R E A L I T Y U N D E R A T T A C K

[2] Chesney, Robert and Citron, Danielle Keats, Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security (July 14, 2018). 107 California Law Review (2019, Forthcoming); U of Texas Law, Public Law Research Paper No. 692; U of Maryland Legal Studies Research Paper No. 2018-21. Available at SSRN: https://ssrn.com/abstract=3213954 or http://dx.doi.org/10.2139/ssrn.3213954

[3] https://medium.com/predict/spoofing-face-recognition-with-deepfake-9e6ffb900ad4

[4] https://www.lebigdata.fr/intelligence-artificielle-nvidia

[5] https://www.sudouest.fr/2018/11/10/intelligence-artificielle-la-chine-revele-un-presentateur-tele-virtuel-5555262-4725.php

[6] http://wintics.com/quand-la-data-science-devient-creative-avec-les-gan/

[7] http://wintics.com/quand-la-data-science-devient-creative-avec-les-gan/

[8] https://www.journaldugeek.com/dossier/deepfake-facile-de-creer-videos-truquees-credibles/

[9] http://www.lefigaro.fr/secteur/high-tech/la-joconde-marilyn-monroe-une-technologie-samsung-donne-vie-a-des-portraits-20190524

[10] https://www.frandroid.com/marques/samsung/596623_regardez-la-joconde-prendre-vie-grace-a-samsung-et-son-impressionnante-ia

[11] FakeApp[11], utilisant l’outil de Google, open source, TensorFlow voir aussi https://www.journaldugeek.com/dossier/deepfake-facile-de-creer-videos-truquees-credibles/

[12] https://fakeapp.fr.malavida.com/#gref

[13] https://deepfakesapp.online/

[14] https://github.com/topics/deepfakes et https://github.com/topics/deep-face-swap

[15] https://fr.wikipedia.org/wiki/TensorFlow

[16] https://www.reddit.com/search?q=deep%20fake&type=sr%2Cuser

[17] Les forums de discussion peuvent être le point de départ d’un relais informationnel et peuvent notamment « blanchir » les fausses informations en leur donnant l’impression d’émaner d’acteurs apparemment sans lien avec la visée politique poursuivie, voir notamment : https://www.diplomatie.gouv.fr/IMG/pdf/les_manipulations_de_l_information_2__cle04b2b6.pdf    , p.84

[18]https://www.reddit.com/r/GifFakes/search/?q=deepfake&restrict_sr=1

[19] http://www.lefigaro.fr/secteur/high-tech/2019/01/02/32001-20190102ARTFIG00162-apres-les-fake-news-la-menace-du-deep-fake-prend-de-l-ampleur-sur-le-web.php

[20] https://www.europe1.fr/medias-tele/fake-news-dans-on-nest-pas-couche-vanessa-burggraf-sexplique-3338903

[21] https://www.franceinter.fr/emissions/la-fenetre-de-la-porte/la-fenetre-de-la-porte-21-mai-2019

[22] En Chine l’« armée des 50 cents » est composée de plus de deux millions de personnes, poste près de 450 millions de commentaires par an, voir notamment : http://www.rfi.fr/asie-pacifique/20160525-chine-apres-policiers-net-soldats-propagande-net

[23] https://www.liberation.fr/planete/2018/12/18/ingerence-russe-la-methode-troll_1698652

[24]Alan Dolhasz, chercheur spécialisé dans l’imagerie numérique à l’université de Birmingham (Grande-Bretagne), https://www.france24.com/fr/20180914-deep-fake-trucages-video-election-influence-porno-menace-democratie

[25] https://www.journaldugeek.com/dossier/deepfake-possible-de-detecter-videos-truquees/

[26] Defense Advanced Research Projects Agency

[27] https://www.niemanlab.org/2019/03/whatsapp-fact-checking-deepfake-detection-and-five-other-ai-news-projects-get-funding/

[28] https://www.diplomatie.gouv.fr/IMG/pdf/les_manipulations_de_l_information_2__cle04b2b6.pdf

[29] Invidéoveritas. : InVid (plugin)https://www.invid-project.eu/