Close

Fake news et manipulations de l’information, la prochaine épidémie ?

Cet article est une synthèse du premier module sur trois de l’événement Cyberdéfense et Stratégie, organisé entre les 15 et 17 décembre 2020 par CEIS au profit du Commandement de la cyberdéfense du ministère des Armées. Consacré à la thématique « Fake news et manipulations de l’information : la démocratie en péril ? », cet atelier eu lieu dans un format webinar dont le replay est disponible ici.

Les échanges ont réuni les participants suivants (par ordre alphabétique) : Sébastien Bombal (Chef du pôle Stratégie du Commandement de la cyberdéfense), Christophe Deloire (Secrétaire général de Reporters sans frontières) le Dr. Jacques Fradin (Docteur en médecine, comportementaliste et cognitiviste à l’AFTCC), Divina Frau-Miegs (Professeur à l’Université Sorbonne Nouvelle – Paris III), Tariq Krim (Tech entrepreneur, fondateur de Jolicloud et de Netvibes), David Lacombled (Président de la Villa Numéris) et Julien Nocetti (Professeur de relations internationales à Saint-Cyr et chercheur à l’IFRI).

 « Au champ de bataille physique, se superpose maintenant un champ de bataille informationnel. Nos armées l’ont théorisé depuis longtemps, mais ses moyens ont changé et son ampleur est inédite »

Discours de Florence Parly lors de la remise du rapport CAPS/IRSEM sur « Les manipulations de l’information » (2018)

À l’ère du « tout numérique », l’espace informationnel ou « infosphère », repose sur un enchevêtrement d’individus produisant, relayant ou amplifiant[1] des informations, à partir notamment de plateformes d’intermédiation créées et opérées par des acteurs privés tels que Google, Facebook ou Baidu. Dans cet environnement qui favorise la diffusion de fausses informations à une vitesse six fois plus élevée que de « vraies » informations[2], les manipulations de l’information constituent un enjeu majeur pour les démocraties.

Les appellations ne manquent pas pour désigner les manipulations de l’information : fake news, désinformation, mésinformation, propagande, intoxication à visée politique, canular…

Pour Divina Frau-Miegs par exemple, ce phénomène se structure aujourd’hui autour de trois dimensions : la malveillance humaine (l’intention de nuire à autrui), la malfaçon industrielle (manipuler une vraie information de sorte à porter à confusion) et l’utilisation de la technologie pour « viraliser, tromper ou créer de la fausse militance en ligne ». Ces dimensions rompent avec la propagande d’antan par le rôle inédit qu’elles donnent au public, qui peut désormais, grâce aux algorithmes des plateformes d’intermédiation, promouvoir certains narratifs en les amplifiant et en les viralisant.

David Lacombled insiste sur la notion de désinformation, qui consiste à tromper des individus à des fins mercantiles ou idéologiques. Les fausses informations prennent de multiples visages. Il peut s’agir :

  • D’informations factuellement fausses (comme le supposé soutien du pape François à Donald Trump, annoncé par ce dernier, lors des élections présidentielles américaines de 2016) ;
  • de fausses informations mêlées à des informations authentiques afin de donner une impression de véracité à l’ensemble et empêcher le lecteur de faire la part des choses. En 2017, les documents liés aux « Macron Leaks » comportait 5% de contenus erronés. Noyées dans de « vraies informations », ces fausses informations ont été dissimulées dans du vrai afin de mieux nuire au candidat Emmanuel Macron ;
  • la question de la parodie se pose également : peut-elle être considérée comme de la désinformation ? Des sites à vocation commerciale, tels que le Gorafi, diffusent des informations partiellement vraies mais les détournent de façon affichée. Chaque lecteur doit pouvoir être libre de se faire sa propre interprétation.

Quant à Tariq Krim, il s’intéresse davantage au sujet des contenus diffusés. Il évoque notamment des « toxicités de l’Internet » qui prennent la forme de théories conspirationnistes, de haine en ligne ou d’intervention extérieure (de type ingérence dans les affaires intérieures d’un pays).

Quelle que soit l’approche adoptée, les manipulations de l’information ont avant tout pour objectif de tromper voire de polariser une audience cible. Utilisées à des fins politiques, elles peuvent donner lieu à ce que certains qualifient de « guerre de l’information ». Elles prennent dans ce cas la forme d’attaques informationnelles, que Sébastien Bombal associe à des « actions visant à diffuser un message dans l’intention de tromper, de discréditer, de décourager ou de nuire à un adversaire » voire de « mobiliser des forces » à l’encontre de ce dernier. Ce type d’attaque peut alors être comparé à une véritable « arme de déstabilisation massive ».

Dans cette perspective, les technologies numériques permettent d’augmenter la portée des contenus utilisés et d’atteindre ainsi de larges audiences. Quels sont les mécanismes et les conséquences de cet environnement qui favorise la prolifération – telle une épidémie – des fausses informations ? Existe-t-il des remèdes pour se prémunir contre les manipulations de l’information ?

1.   Les manipulations de l’information à l’ère du « tout numérique »

Les manipulations de l’information sont un phénomène protéiforme et ancien, qui évolue en même temps que son environnement au gré des innovations technologiques. Elles prennent aujourd’hui une ampleur inédite du fait de la numérisation massive des sociétés depuis une décennie. Elles exploitent[3] notamment :

  • Une technologie. À l’ère numérique, les comptes automatisés et les systèmes d’amplification sur les plateformes d’intermédiation privées constituent une innovation pour augmenter la portée de contenus ;
  • des vulnérabilités sociétales, c’est-à-dire des sujets socio-politiques susceptibles de polariser des audiences ;
  • le fonctionnement du cerveau humain, plus particulièrement les biais cognitifs, influencent la façon dont un individu perçoit une information.

1.1.   L’omniprésence des plateformes dans l’organisation des sociétés démocratiques

L’évolution de la topologie de l’infrastructure Internet et des plateformes d’intermédiation a modifié la nature des interactions en ligne. Entre les années 1970 et 1990, les échanges se limitaient à des communautés virtuelles de milliers de personnes. L’émergence des médias sociaux et des blogs à la fin des années 1990 a attiré des millions d’utilisateurs. Ces derniers ont mis fin au monopole de la production de l’information, apanage jusque-là de quelques médias, au profit d’une « communication horizontale ». Avec la possibilité de partager des informations et ses opinions, tout internaute peut désormais devenir un média et investir le débat public. Cette tendance s’est renforcée avec les plateformes d’intermédiation qui comptent aujourd’hui des milliards d’utilisateurs.

  • L’émergence de l’Internet « féodal »

Depuis la fin des années 2000, l’arrivée de ce que certains surnomment l’Internet « féodal », incarné entre autres par l’iPhone et le cloud, a transformé le rôle des plateformes d’intermédiation. Celles-ci ont progressivement placé la monétisation au cœur de leur fonctionnement. Elles structurent aujourd’hui une grande partie de la vie privée de milliards d’utilisateurs et organisent entièrement le débat public.

Tariq Krim décline le quotidien d’un individu autour de trois espaces : un espace personnel (intimité, centres d’intérêt, relations humaines), un espace commercial (plateformes d’intermédiation privées, biens de consommation) et un espace public (vie politique, services gouvernementaux, lieux publics). La montée en puissance des plateformes a provoqué une expansion de l’espace commercial au détriment des espaces personnel et public. Pour Christian Deloire, l’espace public, qui était auparavant organisé par les principes édictés par les parlements, relève aujourd’hui d’intérêts privés et de la tutelle des dirigeants des plateformes.

Espaces personnel, commercial et public avant Internet – Tariq Krim

  • L’ère du personal branding

Dans un contexte où les espaces personnel et public se confondent, tout individu – dont les personnalités politiques – est un potentiel « influenceur » en quête de visibilité. C’est ainsi que sont nées de nouvelles pratiques telles que le « hashtag activism », qui consiste à utiliser les hashtags des sujets les plus tendances du moment (trending topics), jouissant d’une portée considérable, pour viraliser des sujets politiques. Certains utilisateurs ont besoin de capter l’attention pour exister et publient pour cela régulièrement des contenus.

1.2.   L’Internet des plateformes : un « Far West » numérique ?

L’espace commercial des plateformes présente la caractéristique de ne pas être régulé. Aux États-Unis, la section 230 (1996) les décharge de toute responsabilité quant aux contenus qui y sont diffusés. Il en est de même en France avec la loi pour la confiance dans l’économique numérique (LCEN) de 2004. Ces deux textes ont été adoptés pour encadrer l’utilisation des plateformes à une époque où celles-ci ne comptaient que des milliers voire des millions d’utilisateurs – contre des milliards de nos jours. Les législateurs n’avaient en effet pas mesuré la dimension que ces plateformes allaient avoir. Le droit en vigueur dans les deux pays ne prévoit ainsi pas leur détournement à diverses fins dont notamment celles des manipulations de l’information.

Selon Sébastien Bombal, l’expansion des médias sociaux dans les infosphères a ouvert une sorte de « boîte de Pandore informationnelle » qui exploite a minima les caractéristiques suivantes :

  • L’émergence de nouveaux acteurs dans la production et la diffusion d’informations implique de nouvelles responsabilités pour les plateformes, les influenceurs et les relais d’information. À ce titre, Christophe Deloire considère que les médias sociaux ont, à l’occasion des élections américaines de 2020, fait des choix qui s’apparentent à des décisions éditoriales en annotant et en supprimant les publications de Donald Trump qu’ils ont jugées être de la désinformation. Au regard de leur rôle dans la structuration du débat public et n’étant pas des médias, la légitimité de ce type d’intervention doit faire l’objet d’un débat ;
  • la compression du temps et de l’espace inhérent au milieu cyber permet à quiconque de s’affranchir des frontières. Les internautes sont en mesure d’atteindre instantanément des audiences à l’autre bout du monde et même celles jusque-là protégées des manipulations de l’information d’acteurs étrangers ;
  • la démocratisation de la production de l’information a mis fin au schéma classique d’un producteur qualifié d’une information vers un récepteur. Les utilisateurs des plateformes deviennent de potentiels producteurs de contenus, alors que ce rôle était jusque-là dévolu exclusivement aux médias traditionnels ;
  • les algorithmes de recommandation des plateformes promeuvent de manière ciblée certaines informations au détriment d’autres auprès d’un individu ou d’un groupe d’individus.

Accédez à l’allocution d’ouverture de Sébastien Bombal en cliquant ici :

1.3.   Les nouvelles pratiques de l’économie de l’attention

L’absence de régulation de cet espace commercial favorise le microtargeting. L’économie de l’attention oriente le fonctionnement des plateformes d’intermédiation. Elles cherchent davantage à capter l’attention de leurs utilisateurs, afin de les exposer le plus possible à de la publicité, qu’à contrôler la nature des contenus qu’ils publient. Leurs algorithmes dits « de recommandation » créent à cet égard un système d’auto-alimentation que Tariq Krim qualifie « d’inépuisable ». Celui-ci collecte sans cesse des données visant à mieux comprendre l’utilisateur (contenus d’intérêt, habitudes d’utilisation, état psychologique, etc.) pour personnaliser au maximum son fil d’actualité et augmenter ainsi son temps de connexion à la plateforme.

Ce ciblage organise voire enferme des individus aux opinions similaires dans des bulles dites algorithmiques ou « filtrantes » selon une logique commerciale, qui peut être détournée à des fins de manipulation. En proposant systématiquement le même type de contenus aux utilisateurs des plateformes, ces bulles renforcent les biais cognitifs des lecteurs (cf. infra) et les confortent dans leurs croyances et opinions. Étant peu voire pas confrontés à des opinions différentes, ces utilisateurs peuvent ainsi difficilement réviser leur jugement.

Accédez aux interventions de Tariq Krim en cliquant ici et ici :

Le premier facteur de succès et de diffusion des manipulations de l’information réside dans le fonctionnement du cerveau humain. Le Dr. Jacques Fradin rappelle notamment que le cerveau humain, lorsqu’il est confronté à une information, mobilise d’abord par défaut son système heuristique, lié aux émotions et aux automatismes. Le système algorithmique, qui permet à un individu de se faire une opinion, n’intervient qu’en dernier recours. En d’autres termes, un individu est naturellement davantage gouverné par ses automatismes et ses évidences sensorielles, à la base d’une partie de sa crédulité lorsqu’il est par exemple sur les réseaux sociaux, que par sa capacité de réflexion. C’est ainsi que se créent les biais cognitifs, ces distorsions dans le traitement d’informations nées de la déviation de la pensée rationnelle et logique par rapport à la réalité. Ce sont ces biais cognitifs qui expliquent pourquoi chaque individu interprète différemment une même information.

Exemples de biais cognitifs[4]

  • Effet de vérité illusoire : Une information qui semble familière à un lecteur, qu’il a déjà reçue à plusieurs reprises, même fausse ou erronée, semble plus facilement véridique ;
  • Effet de renforcement : Une information, en contredisant une autre, devient la preuve de la véracité de la première (exemple : pour le lecteur convaincu que le régime de Saddam Hussein possédait des armes de destruction massive, lire un texte réfutant cette information le renforcera dans ses convictions initiales) ;
  • Biais de confirmation : L’individu privilégie les informations qui confortent ses positions.

Les plateformes d’intermédiation privées se sont imposées comme des acteurs majeurs de l’environnement géopolitique. En plus de transformer les rapports traditionnels de pouvoir entre les acteurs étatiques, les acteurs non étatiques et le secteur privé[5], ces plateformes mettent à la portée de tous des outils d’influence, au premier plan desquels les manipulations de l’information.

Le développement des plateformes pose de nouveaux défis en termes de prérogatives et de souveraineté des États. Il challenge notamment la résilience des systèmes démocratiques, comme le montre leur utilisation à des fins de propagation de fausses informations et d’interférence à l’occasion d’élections nationales dans plusieurs pays occidentaux (France, Allemagne, États-Unis, Royaume-Uni, etc.).

2.   La « guerre informationnelle » permanente : un enjeu de résilience démocratique

2.1.   Les stratégies informationnelles : outils de politique étrangère

Dans un contexte stratégique marqué par le « retour des puissances », le champ immatériel des espaces informationnels constitue un nouveau terrain de confrontations. Le détournement de la logique commerciale des plateformes d’intermédiation à des fins géopolitiques voire idéologiques, par des acteurs étatiques et non étatiques, constitue une menace croissante. Tous ces acteurs profitent de la porosité entre les différentes infosphères pour influencer des communautés cibles en agissant sur les vulnérabilités sociétales de leur pays. Dans certains cas, l’espace informationnel s’intègre même à des stratégies globales dites « hybrides » qui mêlent la force conventionnelle à des outils cyber et de la guerre asymétrique.

Exerçant un contrôle politique sur leurs médias nationaux, la Russie et la Chine font partie des principaux États qui ont fait de leur stratégie informationnelle un outil assumé de leur politique étrangère. Selon Julien Nocetti, leurs manipulations de l’information s’insèrent dans des stratégies globales asymétriques et ciblent en premier lieu leurs populations respectives à des fins de cohésion nationale, avant de « s’exporter » pour influencer des audiences cibles à l’étranger (notamment en Occident). Moins coûteuses que les armes conventionnelles, ces pratiques s’inscrivent, dans ces deux pays, dans une longue tradition de propagande politique. La crise Covid-19 a constitué l’occasion d’appréhender davantage la nature de ces stratégies (cf. infra).

La Russie utilise le cyberespace pour influencer à bas coût et pallier ainsi sa faiblesse économique. Son objectif est d’affaiblir l’Occident en instrumentalisant ses fractures socio-politiques. Ses attaques informationnelles sont plus massives, coordonnées et offensives lorsque l’objet de la désinformation ou de la propagande concerne directement ses intérêts nationaux, comme ce fut notamment le cas pour l’Ukraine ou la Syrie. Moscou est en revanche restée relativement en retrait lors de la crise Covid-19. Le Kremlin s’appuie aussi sur ses médias internationaux RT et Sputnik pour propager ses narratifs. Difficile à contrer, leur dimension sarcastique voire quasi-humoristique à l’égard de l’Occident plaît à une large audience à l’étranger.

La Chine a adopté une stratégie différente mais qui se révèle complémentaire à celle de la Russie. Cette stratégie participe à l’affichage de sa puissance décomplexée et de son modèle de gouvernance. Lors de la crise Covid-19, Pékin a ouvertement diffusé de fausses informations avec un ton désinhibé et plus agressif, en rupture avec son soft power traditionnel qui consistait à véhiculer une image bienveillante d’elle-même dans le monde. Son objectif est de semer le doute auprès des opinions occidentales quant à la fiabilité et à l’efficacité de leurs dirigeants. Ciblant initialement des audiences situées sur son territoire ou dans son environnement régional, sa stratégie informationnelle s’est progressivement globalisée et mêle désormais un opportunisme tactique. Inscrite sur le long terme, elle alterne entre rhétorique conciliante et propos plus martiaux.

Les élections présidentielles américaines de 2020

Ce scrutin n’a jamais attiré autant d’électeurs dans l’histoire des États-Unis. Les réseaux sociaux ont joué un rôle crucial. Elles ont permis de viraliser les publications produites par les candidats des deux extrêmes de l’échiquier politique, Bernie Sanders et Donald Trump.

Ces élections ont consacré de nouveaux modèles d’utilisation des technologies et des réseaux sociaux. Considérant qu’une publication outrancière donne de la viralité et permet d’occuper le terrain médiatique, le candidat Donald Trump y a régulièrement partagé des informations infondées, telles que ses accusions du manque de fiabilité du vote par correspondance ou ses préconisations de remèdes contre la Covid-19. Cette logique du scandale vise à « créer le buzz ». Elle peut être opposée au modèle de Barack Obama, qui consistait à réunir un électorat autour de messages communs, ou au « compassionnel » de Joe Biden qui cherche à fédérer des électeurs autour d’idées d’apaisement.

Le scrutin a marqué un tournant dans les manipulations de l’information. En 2016, la victoire de Donald Trump s’est inscrite dans un contexte d’interférence étrangère avec notamment l’Internet Research Agency, dont les publications visaient à polariser la société américaine en exploiter les tensions socio-politiques. Les trolls russes avaient alors déjà introduit cette idée d’un manque de fiabilité du vote par correspondance. En comparaison, les élections de 2020 ont été l’occasion d’une « renationalisation » des manipulations de l’information avec la mouvance QAnon, qui a cherché à mobiliser l’électorat de Donald Trump autour de théories conspirationnistes en associant les élites à un réseau de satanistes pédophiles.

Enfin, ces élections américaines ont marqué un changement d’approche des plateformes. Elles ont de fait outrepassé leur rôle et pris des décisions éditoriales en supprimant certaines publications de Donald Trump qu’elles ont qualifiées de fausses informations.

Accédez à l’intervention de Julien Nocetti en cliquant ici :

2.2.   Contrer les manipulations de l’information : un enjeu de stabilité pour les démocraties

Cette situation de « guerre informationnelle » permanente, qu’il s’agisse d’influence ou d’ingérence étrangère, ou plus généralement de désinformation, endommage le tissu démocratique. Elle favorise la polarisation des opinions, la montée des extrêmes, affaiblit le sens critique et appauvrit le débat public. Pour Divina Frau-Miegs, les sociétés occidentales sont même dans une situation « d’urgence démocratique ». Si la France peut compter sur une population relativement éduquée et a appris des expériences passées, avec les élections présidentielles françaises de 2017 et d’autres scrutins à l’étranger, elle doit pour autant rester sur ses gardes. En effet, la France souffre toujours d’un déficit de culture numérique, médiatique et scientifique en matière de manipulations de l’information, non seulement auprès des populations les plus âgées, considérées aujourd’hui comme les plus vulnérables, mais également auprès des plus jeunes. Principaux utilisateurs des réseaux sociaux, les jeunes pourraient à terme être démunis et crédules face à des informations manipulées en ligne.

3.     Rétablir un environnement informationnel fiable

3.1.   Restaurer l’esprit critique

Pour le Dr. Jacques Fradin, le sens critique constitue « l’une des défenses les moins mauvaises » pour lutter contre les évidences et les fausses informations. Plus celui-ci est affaibli et plus un individu est réceptif aux tentatives de manipulation. La meilleure des défenses face à la désinformation est la connaissance de soi, du cerveau et des comportements humains, ainsi que la prise de conscience que les processus physiologiques propres aux humains peuvent les tromper. La lutte contre les manipulations de l’information passe également par la mise à nu de ce qu’il qualifie de « fabrique du mensonge [ou de l’illusion] » car elle permettrait, pour reprendre les termes de Divina Frau Meigs, de « pré-bunker » au lieu de « débunker » une information jugée peu fiable. Cette défense prévaut à celle du « débat sans fin » consistant à démontrer comment chaque fausse information est biaisée. En d’autres termes, « la question apporte plus que la contre-réponse » : apprendre à un individu à se méfier peut s’avérer plus efficace que le fact checking. Cette technique est d’ailleurs celle utilisée par Joe Biden lors des élections présidentielles américaines de 2020. Le candidat démocrate s’est efforcé d’interroger la source des informations de Donald Trump plutôt qu’à les contrer directement.

Accédez aux interventions du Dr. Jacques Fradin en cliquant ici et ici :

3.2.      Redonner aux journalistes le rôle de « tiers de confiance »

La restructuration du secteur de l’information provoquée par l’arrivée de nouveaux acteurs, que sont entre autres les réseaux sociaux, a transformé le rôle et le modèle économique des médias traditionnels. Face à la multiplication des sources d’information en ligne, la difficulté pour le public demeure en effet de trouver celui qui lui permettra d’obtenir une information de qualité[6]. Divina Frau-Miegs milite pour l’introduction sur les sites d’information d’un « indice de trouvabilité » de ce type informations, ainsi que de plusieurs critères apparents tels que les niveaux de neutralité, d’indépendance et de transparence du média. L’objectif est que chaque internaute puisse se faire sa propre opinion sur la confiance qu’il accorde à un média.

Accédez aux interventions de Divina Frau-Miegs en cliquant ici et ici :

L’émergence des réseaux sociaux a également fragilisé la confiance des opinions publiques envers les médias traditionnels, qui continuent toutefois d’avoir une certaine légitimité. Face à la désinformation, ces médias se sont saisis du fact checking pour renouer une relation de confiance avec leurs audiences, en exposant les mécanismes de fabrique des informations et notamment les fausses. Pour Christophe Deloire, le journaliste doit évidemment contribuer à réduire l’espace de circulation des fake news mais il ne lui appartient pas de « débunker » les fausses informations, au risque de se voir accusé de connivence avec un État ou un régime. En revanche, il doit s’efforcer de diffuser le plus largement des informations fiables, produites avec des méthodes professionnelles et conformes à des règles éthiques, afin de s’imposer comme un tiers de confiance. C’est d’ailleurs tout l’enjeu des démocraties aujourd’hui : outre la restauration de la confiance des citoyens envers les journalistes et les médias, s’assurer que les plateformes diffusent des informations de qualité.

Accédez à l’intervention de Christophe Deloire ici :

3.3.   Des plateformes d’intermédiation plus responsables ?

Les mesures adoptées par les plateformes d’intermédiation ne sont encore pas à la hauteur des enjeux posés par les manipulations de l’information. Elles se limitent au traitement des symptômes et non des causes. Certaines, souvent dans le cadre d’une coopération avec la puissance publique, ont entrepris de réguler leurs contenus en retirant ou en supprimant les contenus considérés comme « illégaux ». Les plateformes continuent néanmoins à entretenir le flou et l’opacité sur leur fonctionnement, en pluis d’animer l’espace numérique public sans aucun contrôle démocratique.

Pour Tariq Krim, la solution pourrait passer par l’interdiction du microtargeting et donc de la monétisation de la vie privée, pratique désormais largement employée par les plateformes. Il s’agirait en fait de « casser l’internet féodal » pour remettre en cause la toute-puissance des géants du Web, de sorte à réoxygéner le marché et à favoriser l’émergence de modèles économiques plus sains.

Une autre solution serait de refonder l’espace numérique public sur la base de principes transparents et communément admis. C’est le sens du Partenariat Information et démocratie qui compte aujourd’hui plus d’une trentaine d’États signataires (malgré l’absence notable des États-Unis). Le texte invite notamment « les entreprises qui structurent l’espace mondial de l’information et de la communication à respecter des principes de transparence, de responsabilité et de neutralité et à assurer la compatibilité de leurs activités avec les droits de l’homme afin de promouvoir une information fiable ».

 

[1] L’amplification consiste à augmenter la portée d’une information en la partageant largement.

[2] Peter Dizikes, « Study: On Twitter, false news travels faster than true stories », MIT News [en ligne], 8 mars 2018.

[3] Sébastien Bombal, Cyberdéfense et stratégie, 15 décembre 2020.

[4] Voir « La désinformation : arme de distraction massive », OMC [en ligne], 2 septembre 2019.

[5] République française, Revue stratégique de défense et de sécurité nationale, 2017, p. 46.

[6] Le Global Disinformation Index regroupe des outils pour trouver des médias de qualité.