Close

La désinformation : « arme de distraction massive »[1]

Le terme de « fake news », largement utilisé, recouvre en fait plusieurs phénomènes : erreur, rumeur, mésinfomation, désinformation, etc. Mésinformation et désinformation sont parfois difficiles à distinguer, bien qu’il s’agisse de deux concepts différents : la désinformation consiste à diffuser des informations délibérément fausses ou trompeuses, alors que la mésinformation consiste en la diffusion non intentionnelle d’information fausses, à l’image de la diffusion de La Guerre des mondes d’Orson Welles à la radio en 1938 qui généra des réactions de de panique aux États-Unis.[2]

Dans les faits, la désinformation prend souvent la forme de contenus qui ne sont pas intégralement faux, mais plus souvent volontairement exagérés, ou biaisés. Par exemple, les médias ayant relayé les quelques scènes de panique réelles générées par l’adaptation radiophonique de La Guerre des mondes ont pour la plupart largement exagéré les faits et ont ainsi créé un imaginaire autour de cet événement, car ils ont cherché à produire un effet sur leurs lecteurs.

Dans sa Petite histoire de la désinformation[3], Vladimir Volkoff précise que la désinformation repose sur trois éléments :

  • « Une manipulation de l’opinion publique, sinon ce serait de l’intoxication ;
  • Des moyens détournés de traitement de l’information, sinon ce serait de la propagande ;
  • Des fins politiques, internes ou externes, sinon ce serait de la publicité.»[4]

Information et désinformation

La perception de l’information par le lecteur, l’internaute, l’auditeur ou le téléspectateur, dépend de la façon dont il la comprend, donc de son propre schéma de pensée, et ce d’autant qu’une information, du moment qu’elle est relayée donc racontée, est empreinte de subjectivité et devient ainsi un choix délibéré de celui qui la relaie. Pour un média, c’est un choix éditorial qui suppose deux choix préalables : le sujet traité et la façon d’en parler.

 

Plusieurs biais[5] influencent la façon dont un public perçoit une nouvelle et notamment :

  • Effet de vérité illusoire : une information qui semble familière à un lecteur déjà reçue à plusieurs reprises, même fausse ou erronée, semble plus facilement véridique.
  • Biais de corrélation illusoire : l’auditoire construit des liens de causalité entre deux faits n’ayant pas forcément de liens directs (ex. : deux individus vaccinés tombent malades, on en conclut que le vaccin est à l’origine de la maladie).
  • Effet de renforcement: une information, en contredisant une autre, devient la preuve de la véracité de la première (ex. : pour le lecteur convaincu que le régime de Saddam Hussein possédait des armes de destruction massive, lire un texte réfutant cette information le renforcera dans ses convictions initiales).
  • Hostile media effect: les informations allant à l’encontre des convictions du lecteur sont perçues comme hostiles à son égard.
  • Biais de confirmation[6]: l’auditoire tend à privilégier les informations qui confirment ses positions.

 

Certains chercheurs rappellent aussi que la désinformation exploite avant tout « une paresse intellectuelle naturelle », qui consiste à relayer des informations « sans chercher à les étayer par des preuves »[7], et ce d’autant que les lecteurs ne possèdent souvent pas les moyens de vérifier la véracité des informations[8] et n’en font pas non plus l’effort.

 

Discerner la « vraie nouvelle » de la « fausse nouvelle » est aujourd’hui d’autant plus difficile du fait de :

  • L’abondance d’informations, notamment sur Internet, accusé d’amoindrir l’esprit critique des lecteurs confrontés à une surabondance d’informations et tentés de se fier à leur intuition pour décider de la véracité d’une information sans raisonner de manière analytique[9].
  • La multiplication des vecteurs de diffusion de l’information sur les plateformes numériques et l’horizontalité des médias sociaux: chacun peut diffuser l’information qu’il souhaite sans véritable contrôle.
  • Le micro-ciblage (microtargeting) qui permet aux médias et réseaux sociaux de ne diffuser à leurs lecteurs que les informations auxquelles ils sont susceptibles d’être réceptifs.

Les outils de la désinformation : les algorithmes de personnalisation

La création de « bulles de filtrage[10] » est une stratégie destinée à proposer des contenus « personnalisés » aux internautes. Des algorithmes de personnalisation, aussi appelés algorithmes de recommandations, utilisent entre autres les historiques de recherches, les « j’aime », les cercles de contact et les données de géolocalisation afin de permettre aux moteurs de recherche et aux réseaux sociaux (Facebook, Instagram, Twitter, LinkedIn, etc.) de proposer des résultats de recherche et des contenus (articles de blogs, publicités, vidéos, etc.) adaptés aux préférences et aux opinions des internautes. Ces bulles enferment les lecteurs dans un « espace cognitif clos » et « confortable », qu’aucune information nouvelle ou différente ne vient concurrencer et qui renforce le biais de confirmation[11].

Les principaux algorithmes de personnalisation, sont les suivants[12] :

Filtrage collaboratif

Le filtrage collaboratif (collaborative filtering), ou algorithme de recommandation sociale, repose sur :

  • L’analyse du profil des utilisateurs (user-based ou user-centric), en créant une corrélation entre des utilisateurs aux profils similaires (préférences, intérêts, etc.) dans leur voisinage proche (collègues, amis, etc.). Cet outil part du postulat que si ces utilisateurs ont eu un comportement similaire dans le passé, leur comportement futur devrait également l’être. Si l’historique de navigation d’un utilisateur ressemble à ceux de ses collègues, l’algorithme lui propose systématiquement des contenus consultés plus tôt par ceux-ci.
  • L’analyse des contenus (item-based ou item-centric) mesure non pas la corrélation entre des utilisateurs mais entre des contenus. Les articles identifiés comme similaires aux articles lus ou « aimés » par un utilisateur lui seront proposé automatiquement par l’algorithme de filtrage.

Recommandation content-based

Un algorithme content-based ne tient pas compte de l’activité des utilisateurs mais n’analyse que la structure du contenu afin d’y détecter des similarités. L’algorithme répertorie – entre autres – le titre, le nom de l’auteur, ainsi que les mots composant une publication et les compare à d’autres articles. Plus les articles comportent de mots similaires, plus ils sont considérés comme proches et susceptibles d’être proposés à l’utilisateur. L’algorithme content-based propose aux internautes des publications dont les champs lexicaux sont similaires à ceux des pages stockées dans leur historique de navigation.

Algorithmes basés sur des règles

Cette méthode établie des règles générales : par exemple, l’algorithme propose aux utilisateurs les publications les plus populaires, sur la base de critères de popularité définis par le site Internet utilisant l’algorithme (ex. : nombre de fois où la publication est lue ou partagée).

 

Lutter contre la désinformation 

Diversifier les contenus proposés aux utilisateurs

Des outils apparaissent pour tenter de percer les bulles de filtrage en proposant aux utilisateurs de réseaux sociaux d’accéder à des contenus diversifiés. La KIND Foundation (États-Unis) a par exemple lancé en 2017 l’outil Pop Your Bubble, une application qui accède au compte Facebook des utilisateurs pour les connecter avec d’autres utilisateurs afin de les sortir de leur zone de confort cognitif. Pop Your Bubble utilise en effet un algorithme de filtrage de manière inversée, pour confronter les internautes à des schémas de pensée différents des leurs. Après avoir intégré des données telles que l’âge, la ville, le sexe et les « J’aime » de l’utilisateur, l’algorithme propose aux utilisateurs de suivre des personnes hors de sa « bulle » afin de diversifier son flux d’actualités.

Le navigateur Chrome propose quant à lui une extension, Escape Your Bubble[13], créée après l’élection de Donald Trump en 2016 et destinée à sortir des utilisateurs de leur « bulle » politique. Les algorithmes utilisés par la solution insèrent dans le fil d’actualités Facebook des internautes des articles et des images relayant des opinions politiques différentes des leurs. C’est également ce que propose l’application Read Across The Aisle[14], qui insère dans le fil d’actualités des réseaux sociaux des articles normalement bloqués par les algorithmes de filtrage et issus de médias jugés par l’outil comme étant à l’opposé des opinions politiques des utilisateurs.

Les outils du Media Lab du MIT : laisser aux utilisateurs le choix de leurs filtres

En 2016, le Centre des médias civiques (MIT’s Center for Civic Media) et le Media Lab du MIT (MIT Media Lab) ont développé un prototype de l’outil Gobo[15], proposant aux utilisateurs de Facebook et Twitter de gérer eux-mêmes leurs bulles de filtrage grâce à des curseurs leur permettant de contrôler leurs filtres de contenus. Par exemple, le filtre « politique » permet à l’utilisateur de choisir de recevoir dans son fil d’actualités des opinions politiques proches ou différentes des siennes. D’autres filtres permettent par exemple de contrôler le ton des postes (humoristique par exemple) ou leur popularité. Facebook n’a toutefois pas montré d’intérêt particulier pour cette solution, jugeant qu’elle ne serait pas réellement utilisée par les utilisateurs, peu enclins à véritablement diversifier leur fil d’actualités.

Le Medial Lab du MIT a également développé l’outil Social Mirror[16], qui utilise la visualisation de données pour montrer aux utilisateurs de Twitter comment se positionne leur réseau de followers dans le paysage global de Twitter. La phase expérimentale de l’outil a montré que les utilisateurs de Twitter, notamment les plus actifs politiquement, étaient la plupart du temps cantonnés à des bulles politiques correspondant à leurs opinions.

Vérification de l’information : des outils basés sur l’analyse humaine

Plusieurs outils en ligne proposent de noter les sites web selon le niveau de fiabilité des informations qu’ils diffusent. Souvent proposés comme extensions de navigateur, ces outils notent les sites selon un code couleur et donnent aux utilisateurs des informations détaillées sur la notation. Les sites sont notés selon des critères de transparence et de fiabilité, tels que la diffusion ou non de contenu erroné, la correction régulière des erreurs potentielles, la transparence sur les sources utilisées, les sources de financement du site ainsi que l’identité des auteurs des articles. Il est toutefois nécessaire de garder en tête que les critères sont déterminés par les équipes ayant développé la solution et reflètent ainsi une certaine conception de la transparence et de la fiabilité. L’évaluation de ces critères (déterminés pour être objectifs) est également susceptible d’être influencée par la subjectivité des évaluateurs.

Le site du Monde propose quant à lui à ses lecteurs le Décodex[17], un moteur de recherche qui permet de vérifier la fiabilité d’un site à partir de son URL. L’outil est disponible sous la forme d’extensions Chrome et Firefox et avertit l’internaute qui consulte un site pouvant contenir une fausse information par une fenêtre « pop-up ». Un symbole « D » ajouté à la barre d’extensions se colore selon la fiabilité du site visité (rouge pour les sites diffusant régulièrement des informations fausses, orange pour les sites dont la fiabilité est douteuse et bleu pour les sites satiriques) et permet d’accéder à des informations détaillées sur le site concerné.

La start-up américaine NewsGuard[18] a elle aussi développé un outil de notation de la fiabilité des sites d’informations sur la base de neuf critères de fiabilité et de transparence. La solution fonctionne aujourd’hui au Royaume-Uni, en Italie, en Allemagne et, depuis mai 2019, en France (voir Focus Inno).

 

Les réseaux sociaux en guerre contre la désinformation 

Les Etats-Unis sont particulièrement visés par l’utilisation des réseaux sociaux à des fins de désinformation, qu’elle soit volontaire, par la création de faux profils, ou qu’elle soit le résultat des bulles de filtrage. L’article « Bulles de filtrage : il y a 58 millions d’électeurs pro-Trump et je n’en ai vu aucun[19] » souligne par exemple le rôle des algorithmes de filtrage dans le résultat des élections présidentielles américaines de 2016 qui ont élues Donald Trump. De même, en 2018, Facebook a fermé des comptes et pages soupçonnés de publier volontairement des informations douteuses dans le contexte des élections législatives américaines[20]: 32 comptes Facebook et Instagram[21] accusés « d’accentuer les rivalités idéologiques » en juillet 2018, et 82 comptes et pages Facebook accusés de publier « des contenus politiquement clivants » en octobre 2018. Certaines de ces pages comptaient jusqu’à 1 million d’abonnés. Les algorithmes de personnalisation font d’ailleurs le jeu de ces faux comptes car les contenus sont créés afin d’apparaître sur les fils d’actualités des internautes consultant des publications similaires. Facebook a même mis en place une cellule de crise[22] dédiée à la surveillance de l’information diffusée sur ses réseaux, notamment en périodes électorales.

La Russie est quant à elle massivement accusée de répandre des « fake news » dans le cyberespace. En janvier 2019, Facebook a supprimé plus de 500 pages accusées de diffuser de fausses informations sur les opposants russes et de l’Ukraine[23]. Ces pages, imitant le style de personnalités politiques dans le but d’influencer l’opinion des lecteurs, étaient conçues pour apparaitre dans les fils d’actualités des utilisateurs russes en Europe, en Asie centrale, dans le Caucase et en Ukraine. Le réseau Instagram aurait également été largement utilisé par la Russie au cours des élections américaines de 2016, avec des comptes tels que @blackstagram, @feminismtag, @american.veterans, etc. diffusant des opinions clivantes sur les candidats Donald Trump et Hillary Clinton.

La multiplication des informations et des prises de positions, associée aux biais cognitifs, a tendance à pousser les internautes, lecteurs ou téléspectateurs à prendre position et à rallier des camps. Il y a donc sans conteste une concurrence informationnelle. Qu’il s’agisse de la Russie, des États-Unis ou d’autres États, voire d’entités à plus petite échelle, l’utilisation de l’information à des fins politiques n’est pas nouvelle. Elle prend toutefois une ampleur sans précédent du fait de l’expansion permanente du cyberespace et de la multiplication des vecteurs d’information.

[1] https://www.diplomatie.gouv.fr/IMG/pdf/les_manipulations_de_l_information_2__cle04b2b6.pdf

[2] Idem

[3] Vladimir Volkoff, Petite histoire de la désinformation, Éditions du Rocher, 1999

[4] Idem

[5] https://ici.radio-canada.ca/nouvelle/1173415/pourquoi-croyance-fausses-nouvelles-complots-cerveau-biais-cognitifs

[6] Idem

[7] Rapport « Manipulations de l’information – Un défi pour nos démocraties » du CAPS et de l’IRSEM

[8] Vladimir Volkoff, Petite histoire de la désinformation, Éditions du Rocher, 1999

[9] https://ici.radio-canada.ca/nouvelle/1173415/pourquoi-croyance-fausses-nouvelles-complots-cerveau-biais-cognitifs

[10] The Filter Bubble: What The Internet Is Hiding From You, Eli Pariser, 2012

[11] https://www.diplomatie.gouv.fr/IMG/pdf/les_manipulations_de_l_information_2__cle04b2b6.pdf

[12] https://www.mediego.com/fr/blog/principaux-algorithmes-de-recommandation/ ; https://blog.octo.com/introduction-aux-algorithmes-de-recommandation-lexemple-des-articles-du-blog-octo/

[13] https://chrome.google.com/webstore/detail/escape-your-bubble/meplcffeedlignghmjiohclihjffopoi ; https://www.businessinsider.fr/les-algorithmes-peuvent-aussi-vous-aider-a-sortir-de-votre-bulle#decouvrir-quelles-actualites-sont-discutees-en-dehors-de-votre-pays

[14] http://www.readacrosstheaisle.com

[15] https://www.technologyreview.com/s/611826/technologists-are-trying-to-fix-the-filter-bubble-problem-that-tech-helped-create/

[16]https://www.media.mit.edu/projects/social-media-mirror/overview/

[17] https://www.lemonde.fr/les-decodeurs/article/2017/01/23/le-decodex-un-premier-premier-pas-vers-la-verification-de-masse-de-l-information_5067709_4355770.html

[18] Un Focus innovation est dédié à cette solution dans le bulletin OMC du mois d’août 2019

[19] https://www.numerama.com/tech/207428-bulles-de-filtrage-il-y-a-58-millions-delecteurs-pro-trump-et-je-nen-ai-vu-aucun.html

[20] https://www.la-croix.com/Sciences-et-ethique/Numerique/Facebook-supprime-32-comptes-manipulation-politique-Etats-Unis-2018-08-02-1200959376 ; https://lexpansion.lexpress.fr/actualites/1/actualite-economique/facebook-continue-sa-lutte-anti-manipulation-politique-l-iran-pointe-du-doigt_2044705.html

[21] Instagram appartient au groupe Facebook

[22] https://siecledigital.fr/2019/01/30/facebook-va-creer-une-war-room-pour-lutter-contre-les-fake-news-au-moment-des-elections-europeennes/

[23] https://siecledigital.fr/2019/01/19/fake-news-facebook-a-supprime-plus-de-500-pages-de-propagande-gerees-par-des-russes/