Close

Fake news et manipulations de l’information : la technologie, alliée ou ennemie ?

Le présent article est une synthèse du deuxième module de l’événement Cyberdéfense et Stratégie, organisé entre les 15 et 17 décembre 2020 par CEIS au profit du Commandement de la cyberdéfense du ministère des Armées. Dédié au sujet « Fake news et manipulations de l’information : la technologie, alliée ou ennemie ? », cet atelier eu lieu dans un format webinar dont le replay est disponible ici.

Les échanges ont réuni les intervenants suivants (par ordre alphabétique) : Lukas Andriukaitis (Directeur associé au Digital Forensic Research Lab de l’Atlantic Council), Vincent Claveau (Informaticien à l’Institut de recherche en informatique et systèmes aléatoires/IRISA), Paula Gori (Secrétaire générale de l’European Digital Media Observatory), Chine Labbé (Rédactrice en chef Europe à NewsGuard), le colonel Philippe de Montenon (adjoint au Commandant de la cyberdéfense) et Benoît Raphaël (Chief Robot Officer à Flint).

Les manipulations de l’information permettent d’obtenir des effets auxquels aucun conflit armé ou outil militaire ne peut prétendre, tels que renverser une opinion publique ou délégitimer un responsable politique. Bien orchestrée et “crédibilisée”, une fausse information peut même semer la panique au sein d’une population sélectionnée, ce qui pourrait alors l’apparenter à une forme d’attaque armée, en raison des potentielles violences, morts ou destructions d’outils de production associées.

La France ne peut donc se désintéresser des manipulations de l’information et ce d’autant plus que le droit international n’offre aucune garantie contre leur utilisation à des fins de politique étrangère. Elle doit ainsi se tenir prête, dans le respect du droit international, à pouvoir les détecter, les caractériser et y répondre selon les cas. Le champ informationnel étant désormais investi par les moyens numériques[1], la France doit demeurer à l’état de l’art des technologies associées à la création et la détection des fake news afin de mieux les combattre. En effet, l’adaptation aux évolutions technologiques est cruciale pour appréhender les attaques informationnelles, dont celles situées au-dessus du seuil estimé de riposte ou d’attaque armée.

Accédez à l’allocution d’ouverture du colonel Philippe de Montenon ici :

Qu’il s’agisse de propagande ou de désinformation, les manipulations de l’information exploitent un large éventail de méthodes et de techniques de conception, de falsification et d’amplification de contenus. Parmi les technologies qui en sont à l’origine, celles de l’intelligence artificielle (IA) sont sans doute aujourd’hui les plus efficaces.

Par leur nombre élevé d’utilisateurs, les réseaux sociaux servent à l’ère numérique de caisse de résonance aux fausses informations. En 2018, le ministère de la Culture a indiqué dans une étude qu’ils s’imposaient désormais comme le premier moyen pour suivre l’actualité au quotidien de 71% des jeunes (15-34 ans)[2], au détriment des médias classiques. La crise Covid-19 et les confinements successifs ont renforcé cette tendance. Les réseaux sociaux constituent ainsi un terrain privilégié des manipulations de l’information, pratiques facilitées par la multiplication sur les plateformes des contenus en formats courts (texte, clip vidéo, image), de plus en plus populaires auprès des utilisateurs. Les possibilités de falsification de ce type de contenus, comme de façon générale des contenus vidéo diffusés sur les réseaux sociaux, ont été démultipliées par les progrès de l’IA.

Mais si la technologie nourrit la fabrique de la désinformation, elle est en parallèle de plus en plus efficace dans la lutte contre les manipulations de l’information. Par exemple, si l’IA permet de créer et de falsifier des contenus à des fins de désinformation (photomontage, deepfake, génération automatique de texte, etc.), elle offre également, avec d’autres technologies, des capacités utiles à leur détection (analyse des mouvements, reconnaissance faciale, détection d’altérations d’une image, etc.). Avec des méthodes de machine learning et de deep learning, un nombre croissant de solutions d’IA émerge et permet d’identifier des contenus manipulés, à partir entre autres d’algorithmes et d’important volumes de données.

La technologie permet donc à la fois de créer et de se prémunir des fausses informations. Dans quelle mesure et de quelle(s) façon(s) contribue-t-elle à la production et à la diffusion, mais aussi à la détection de contenus dans le cadre de manipulations de l’information ?

1. Le modeste rôle de la technologie dans les manipulations de l’information

1.1. Une fabrique de fausses informations essentiellement artisanale

À l’ère numérique, les manipulations de l’information sont essentiellement réalisées à partir de technologies considérées comme « artisanales » – c’est-à-dire peu sophistiquées. La réalisation d’un « faux » capable de tromper une audience ne nécessite pas forcément d’engager des moyens conséquents. Bien que l’émergence de technologies de pointe doive être surveillée dans les prochaines années, celles-ci ne constituent aujourd’hui pas le principal moteur de création et de falsification de contenus inauthentiques. La « désinformation artisanale » reste le risque le plus prégnant et ne disparaîtra pas de sitôt. Les exemples ci-dessous montrent que les principaux vecteurs des manipulations de l’information découlent de technologies simples mais efficaces.

  • Le photomontage : des logiciels de traitement d’image accessibles à tous

En novembre 2020, un internaute a produit à l’aide d’un logiciel de montage probablement grand public (voire de traitement de texte) une fausse note d’information de la Direction générale de la sécurité civile du ministère de l’Intérieur. Dans le contexte de crise Covid-19, ce document visait à faire croire à la programmation quatre mois à l’avance d’un « troisième confinement » en mars 2021, suivi d’une « campagne de vaccination massive ». Son auteur l’a assortie d’un logo de la République française afin de lui donner l’authenticité d’une note officielle.

Le ministère de l’Intérieur a rapidement démenti l’information en indiquant qu’il s’agissait d’un « faux ». Il demeure que le montage a été publié puis partagé des millions de fois sur le média social Facebook. Son objectif visait à discréditer le gouvernement français et à alimenter les théories du complot. Très exposé, il a fait l’objet, de la part de plusieurs médias traditionnels, de travaux de fact-checking (vérification des faits) afin de réfuter la véracité de l’information véhiculée par le montage.

  • Les deepfakes: la démocratisation d’une arme de désinformation

Un deepfake est une synthèse d’images reposant sur l’IA. Déjà utilisés à des fins artistiques ou pour la production audiovisuelle[3] (jeux vidéo, télévision, etc.), les deepfakes deviennent de plus en plus accessibles et sophistiqués à mesure que la recherche en IA progresse et que les technologies associées se démocratisent. Cette technique est toutefois régulièrement dévoyée à des fins malveillantes de désinformation. Sa principale utilisation consiste à cet égard à attribuer de faux propos ou comportements à des personnalités publiques.

S’ils suscitent des craintes depuis quelques années, les deepfakes – et plus largement les vidéos truquées – ont eu un impact limité dans le débat politique en 2020, puisque peu de campagnes de manipulations de l’information à des fins militantes y ont eu recours. Chine Labbé rappelle que l’une des vidéos les plus populaires sur les réseaux sociaux a été cette année-là un montage sur Nancy Pelosi, qui a simplement été ralentie et tronquée de sorte à faire apparaître la Présidente de la Chambre des représentants des États-Unis dans un état d’ébriété. Ce trucage montre qu’un modeste niveau technologique permet d’obtenir des effets importants.

  • Le traitement automatique des langues : l’invention et le recyclage de textes

Domaine de l’IA, le traitement automatique des langues (NLP) se décline à des fins de manipulations de l’information dans, entre autres, la traduction automatique et la génération automatique de textes.

Selon Lukas Andriukaitis, la traduction automatique d’un contenu erroné, puis sa diffusion en ligne, demeure l’un des vecteurs les plus récurrents des manipulations de l’information. Cette méthode de « recyclage » de narratifs vers plusieurs audiences étrangères est privilégiée par les acteurs aux moyens techniques limités. Chine Labbé prend en exemple le courriel d’un prétendu lanceur d’alerte canadien en octobre 2020. Le mail, écrit dans un anglais approximatif, révélé sous la forme d’un article sur un blog, faisait état d’une feuille de route alarmiste du gouvernement canadien quant à l’arrivée d’un nouveau virus appelé « Covid-21 ». Cette information a circulé sur les réseaux sociaux dans plusieurs langues dont le français, l’espagnol, l’italien, le russe et le polonais. Sur Facebook, la version tagalog a suscité plus de trois millions de vues (Philippines).

Quant à la génération automatique de textes, l’exemple ci-dessous est le résultat d’un logiciel utilisé par l’Institut de recherche en informatique et systèmes aléatoires (IRISA). Celui-ci, à partir d’une « accroche » factuellement véridique (ici, l’événement annuel Cyberdéfense & Stratégie organisé par le COMCYBER), constitue, à partir d’informations authentiques recueillies sur Internet et portant sur des sujets similaires, un texte dont le contenu est totalement factice. Factice car ne correspond pas à la réalité mais n’en demeure pas moins cohérent, détaillé et bien construit. Un tel contenu peut facilement tromper le lecteur non ou peu averti.

Exemple de génération automatique de texte – Source : IRISA

1.2. Le rôle central des utilisateurs des réseaux sociaux dans la propagation des contenus

Plus que par leur sophistication technologique, les fake news gagnent en popularité grâce aux réseaux sociaux, qui font office de caisse de résonance. Automatisés voire semi-automatisés par des technologies de l’IA, des robots peuvent néanmoins être programmés pour promouvoir activement certaines informations, en partageant systématiquement les publications de comptes sélectionnés (social bots). Pour autant, la propagation des fake news s’effectue essentiellement de manière « naturelle » en passant de compte en compte, de page en page, de site de mésinformation en site de mésinformation. Les internautes conservent ainsi un rôle central dans la promotion de contenus sur les sites d’information et sur les réseaux sociaux.

Pour illustrer cette circulation naturelle des fake news, Chine Labbé prend l’exemple d’un article du site peu fréquenté GreatGameIndia, indiquant que le SARS-CoV-2 (Covid-19) a été créé dans un laboratoire canadien. La publication précise que, dans la perspective de développer une arme biologique, des espions chinois auraient amené ce virus à Wuhan (Chine) où il aurait fuité. Passant inaperçu, l’article a pourtant été dupliqué in extenso par le blog américain de mésinformation ZeroHedge, doté d’une plus grande popularité, qui l’a ensuite partagé sur ses réseaux sociaux. L’engagement suscité (nombre de partages, likes et commentaires) aurait alors été multiplié par quinze. La viralité de l’article a contribué à sa reprise par RedStateWatcher, dans le top 150 des sites les plus consultés aux États-Unis, qui lui a offert une exposition considérable.

Lukas Andriukaitis observe que des comptes authentiques peuvent activement contribuer à l’amplification de narratifs sur les réseaux sociaux. Pendant la seconde guerre du Haut Karabagh de 2020 par exemple, les deux camps belligérants – arméniens et azerbaïdjanais – se sont livrés à une bataille sur Twitter pour la conquête « des cœurs et des esprits » dans les sociétés occidentales[4]. Leur méthode consistait alors à mettre en avant des tweets favorables à son propre camp et hostiles à celui de l’adversaire. Des comptes venant de Turquie, alliée de l’Azerbaïdjan, ont participé à un « hashtag activism[5] » visant à nuire à l’Arménie, par des tweets utilisant une douzaine de hashtags hostiles dont #ArmenianTerrorism et #ArmenianAgression. Le graphique ci-dessous montre l’utilisation des hashtags « pro-Arménie » et « pro-Azerbaïdjan » lors du conflit :

 

Hashtags dans la seconde guerre du Haut Karabagh – Source : Lukas Andriukatis (DFRLab)

Plusieurs pics d’utilisation des hashtags « pro-Azerbaïdjan » peuvent être observés. L’un d’eux correspond au cessez-le-feu du 10 octobre et un autre à l’annonce d’une deuxième tentative de cessez-le-feu le 16 octobre. Le fait que ces pics s’étalent sur de courtes périodes similaires de cinq jours laisse supposer que les hashtags ont été promus de manière coordonnée. La modélisation des comptes ayant diffusé les #ArmenianTerrorism et #ArmenianAgression permet de dégager quatre réseaux distincts d’utilisateurs « pro-Azerbaïdjan » :

Visualisation des hashtags #ArmenianAggression et #ArmenianTerrorism – Source : Lukas Andriukatis (DFRLab)

Les comptes les plus actifs se regroupent au sein d’une communauté principale (Main effort). Leur date récente d’inscription sur Twitter suggère qu’ils ont spécifiquement été créés pour promouvoir une vision hostile à l’Arménie en utilisant les hashtags #ArmenianTerrorism et #ArmenianAgression. Pour autant, rien n’indique qu’il s’agit de faux-nez : leurs publications ne relèvent pas de bots car ils publient des tweets personnalisés et leurs activités ne se limitent pas au partage d’autre tweets. La recherche d’image inversée de leurs photos de profil montre que celles-ci ne sont ni fausses, ni volées. Les trois autres communautés dites de « soutien » (#1, #2 et #3) rassemblent des utilisateurs, majoritairement turcs, ayant contribué à la popularité des deux hashtags en partageant de manière spontanée certains tweets de la communauté principale. Sur la base des mêmes critères que pour l’analyse de la communauté principale, il semblerait que ces comptes soient authentiques et qu’ils n’ont pas été créés dans le seul but d’amplifier des narratifs « pro-Azerbaïdjan ».

Accédez aux interventions de Lukas Andriukaitis en cliquant ici et ici :

Selon Chine Labbé, les utilisateurs des réseaux sociaux s’adaptent pour contourner le contrôle des plateformes visant à limiter la viralité d’un hashtag. Le typosquatting d’un hashtag, voire son remplacement par un autre, fait partie des moyens les plus employés. Ces techniques de contournement montrent les limites des plateformes : leur technologie ne peut ni détecter, ni contrer seule toutes les tentatives de manipulations de l’information.

2. La détection des fake news : la recherche d’un équilibre entre l’humain et la technologie

2.1. L’humain au cœur de la lutte contre les fausses informations

L’enjeu est de trouver le bon équilibre entre l’humain et la technologie face aux manipulations de l’information. Le colonel Philippe de Montenon rappelle que la lutte contre ces dernières s’appuie sur une diversité de métiers, à l’image du caractère protéiforme de ce phénomène. Une équipe équilibrée doit réunir des :

  • techniciens pour développer, maîtriser et adapter des outils de détection de fake news à la situation ;
  • linguistes pouvant comprendre et analyser les contenus en langue étrangère diffusés par les adversaires ;
  • experts capables d’appréhender la culture et l’environnement des auteurs des manipulations de l’information, notamment en géopolitique si des forces armées en opération extérieure sont impliquées ou ciblées ;
  • psychologues, en mesure d’analyser les enjeux des manipulations de l’information pour l’humain.

Ces compétences étant difficilement automatisables, l’humain doit conserver un rôle prépondérant. D’autant plus que l’IA identifie difficilement les contenus de propagande, de désinformation et de mésinformation, contrairement à ceux à caractère pornographique ou violent. La détection des manipulations de l’information requiert en effet, outre un esprit critique et de la culture générale, d’apprécier le contexte d’un contenu diffusé.

Aux États-Unis, lors de la campagne électorale de 2020, des comités d’action politique ont financé des sites de propagande qui, profitant du vide laissé par la fermeture de médias, se sont fait passer pour des médias locaux et ont diffusé des contenus orientés visant à renforcer les intérêts de leurs bailleurs. Le lecteur non averti peut être manipulé à son insu et la technologie est démunie face à ce type de situation. Seul un œil humain peut décrypter les effets recherchés par les auteurs de ces manipulations et ainsi mieux les appréhender.

NewsGuard : labéliser les sites d’information pour lutter contre les fake news

NewsGuard s’efforce de placer l’humain au cœur de ses activités. Elle évalue la fiabilité des sites d’information et alerte les internautes sur ceux qui ne le sont pas. Concrètement, elle met à disposition des internautes une extension de navigateur qui fait apparaître à côté de la source d’information un écusson de couleur rouge (source peu fiable) ou verte (source fiable).

Cette extension propose aussi une « étiquette nutritionnelle » du site d’information visité, qui présente une analyse détaillée des neuf critères journalistiques sur lesquels les équipes de NewsGuard fondent et mettent régulièrement à jour leurs évaluations de sites.

Les sites devant être notés sont identifiés par un algorithme qui analyse le nombre de contenus qu’ils publient et partagent en ligne. Il peut donc s’agir de médias reconnus mais aussi de blogs.

Retrouvez la présentation de NewsGuard et le Focus Entreprise dédié.

Accédez aux interventions de Chine Labbé en cliquant ici, ici et ici :

 

Face à la surabondance d’informations disponibles, Benoît Raphaël estime que les experts humains doivent s’attacher à développer une IA capable d’identifier et de collecter les « bonnes » informations, plutôt qu’une IA cherchant à contrer les (bien trop nombreuses) « fausses » informations. La technologie doit être considérée comme un outil qui doit permettre aux individus de prendre de la distance avec les fake news en sélectionnant pour eux des informations de qualité. C’est tout l’objectif du média Flint qu’il a créé.

Flint : l’IA contre les bulles d’information

Pour Flint, l’objectif n’est pas de lutter contre les fake news mais d’aider l’humain à mieux s’informer en le faisant sortir de la « bulle filtrante » dans laquelle les algorithmes des plateformes d’intermédiation l’enferment. La machine qui permettra de faire face aux réseaux sociaux doit mêler l’intelligence artificielle (IA) avec l’intelligence individuelle et collective des internautes.

Flint combine ainsi trois intelligences : artificielle, collective et individuelle. Pour fournir à chaque lecteur un contenu personnalisé et de qualité, son algorithme d’apprentissage automatique est entraîné par ses lecteurs et par ses quatre cents experts thématiques, qui sont aussi ses clients.

Cet apprentissage comporte deux volets : un « naturel », activé par la lecture des articles proposés par Flint, et un « actif » déclenché par les réactions « j’aime/j’aime pas » à ces mêmes articles.

À partir de ces deux volets, l’IA de Flint détermine les articles qui conviennent à chaque lecteur, tant en termes de thématiques que de critères qualitatifs, grâce à un algorithme combinant :

  • Un modèle social, qui repose sur l’intelligence collective et le travail des milliers d’experts qui valident la pertinence des contenus ;
  • Un modèle sémantique, qui s’attache à comprendre le sens et la signification des mots et des articles, et créer entre eux des connexions dans le but de développer une véritable culture générale au fil des apprentissages.

Pour plus d’informations sur Flint, accédez au Focus Entreprise.

Accédez aux interventions de Benoît Raphaël en cliquant ici et ici :

Plusieurs initiatives mobilisant des experts aux profils multiples dans la lutte contre la désinformation ont émergé ces dernières années, tant au niveau national qu’international. Parmi eux, l’European Digital Media Observatory (EDMO) vise à rassembler des spécialistes du fact-checking, de l’éducation aux médias, ainsi que des chercheurs universitaires, pour comprendre et analyser les fausses informations. L’EDMO a pour projet de se doter d’une plateforme collaborative et sécurisée de fact-checking d’envergure européenne.

Accédez à la présentation de l’EDMO en cliquant ici :

2.1. Les outils technologiques au service de l’expertise humain

Si l’humain doit rester au centre de la lutte contre les manipulations de l’information, il a à sa disposition un certain nombre d’outils et de technologies permettant la détection des manipulations de l’information :

  • Les outils forensiques : la détection des manipulations graphique d’une image

La forensique recouvre l’ensemble des sciences informatiques relatives à l’analyse des traces numériques. Elle propose des outils capables d’analyser efficacement les manipulations locales d’une image, en repérant par exemple la présence de traces non cohérentes avec l’ensemble du contenu ou des traces laissées par une compression. Néanmoins, la forensique perd en efficacité face aux images dégradées ou retouchées, ce qui est souvent le cas de celles en circulation sur les réseaux sociaux (petite dimension, compressées, etc.).

Le cas échéant, l’une des méthodes pour démontrer qu’une image a été manipulée consiste à retrouver l’image authentique – celle qui a servi de support au montage – puis de les comparer. Outre la recherche inversée, des technologies d’IA permettent de décrire des images sous forme de texte afin de faciliter les recherches.

  • Le machine learning contre les articles de désinformation

Le machine learning propose des techniques connues et performantes pour identifier des articles véhiculant de fausses informations. Vincent Claveau indique que les « faux » articles se caractérisent notamment par leur stylistique, la ponctuation, l’usage récurrent des pronoms à la première personne, la longueur des textes et le vocabulaire. Un algorithme bien entraîné, alimenté par un grand volume d’articles issus à la fois de médias considérés comme fiables et de sites connus de désinformation, peut être interrogé sur ces attributs pour distinguer les articles susceptibles de véhiculer de « faux » contenus. En revanche, la génération automatique de texte ne cesse de se perfectionner et risque d’être de moins en moins discernable à l’avenir.

  • Le défi technologique de la décontextualisation

La décontextualisation consiste à renforcer l’impact d’un texte en l’associant à une image qui n’illustre pas le même fait – ou inversement. Il est en l’état difficile de détecter le « décalage » entre les deux supports utilisés car ils font rarement l’objet de manipulations de part et d’autre. L’un des principaux enjeux aujourd’hui est de pouvoir décrire le texte et l’image dans un même espace de représentation.

Accédez à l’intervention de Vincent Claveau en cliquant ici :

Conclusion

Le rôle de la technologie ne doit pas être surestimé au détriment de celui de l’humain dans les manipulations de l’information. Les contenus utilisés sont souvent produits à partir de moyens peu sophistiqués mais qui demeurent efficaces pour tromper autrui (photomontage, deepfakes, etc.). De plus, la propagation de ces contenus relève moins de bots que de l’action d’internautes, qui contribuent activement à leur circulation sur les réseaux sociaux et sur les sites d’information. La viralité d’un contenu tient ainsi davantage à son auteur et aux individus qui la relaient qu’à la technologie employée pour sa création et sa diffusion.

Face à la complexité des manipulations de l’information, l’humain ne peut se remettre entièrement à une machine pour décider si un contenu est faux ou non. La technologie – dont celles de l’IA – doit se cantonner à lui faciliter la tâche. Cela par le biais de solutions capables, outre de repérer les traces de falsification d’un contenu, de « scanner » la toile et son immense volume de contenus afin d’identifier ceux potentiellement faux.

Le développement d’outils et de solutions permettant de lutter contre la menace grandissante des manipulations de l’information relève d’une responsabilité collective. L’État ne peut en effet détenir et contrôler seul leur utilisation. La société civile, la recherche et l’industrie doivent contribuer à l’émergence non pas d’une mais d’une myriade de solutions à la mesure des différents enjeux. Outre le soutien à cette démarche, l’État doit de son côté exiger davantage de transparence de la part des plateformes d’intermédiation privées, notamment pour le référencement et le contrôle de leurs contenus.

 

[1] Ministère des Armées, Actualisation stratégique, Janvier 2021, p. 19.

[2] Ministère de la Culture, Les jeunes et l’information (synthèse), Juillet 2018, p. 14.

[3] « Plus belle la vie : un épisode utilise l’effet spécial du “deepfake” », franceinfo [en ligne], 17 novembre 2020.

[4] DFRLab, « Turkish pop culture Twitter accounts mobilize to support Azerbaijan », Medium [en ligne], 15 décembre 2020.

[5] Voir « Fake news et manipulations de l’information, la prochaine épidémie ? », OMC [en ligne], Janvier 2021.