Close

Vers un durcissement du cadre règlementaire dans la lutte contre les contenus haineux et terroristes en ligne ?

15 mars 2019 : l’auteur de l’attentat dans deux mosquées de Christchurch (Nouvelle-Zélande) diffuse en direct son acte sur Facebook, relayé ensuite sur YouTube.

2016 : Larossi Abballa utilise Facebook Live lors de l’assassinat de deux policiers à Magnanville. Il y réaffirme son allégeance à Daech.

Décembre 2015 : la tuerie de San Bernardino en Californie amène les familles de trois victimes à porter plainte contre les principaux réseaux sociaux, considérant qu’ils représenteraient « des instruments de l’expansion de l’État islamique » (EI). La même année, à la suite des attentats de Paris, une famille porte elle aussi plainte contre Facebook, Google et Twitter pour « soutien matériel » à l’EI, les accusant d’avoir constitué un outil de communication.

Ces quelques exemples, loin d’être des cas isolés, démontrent bien l’utilisation des réseaux sociaux pour la préparation ou la commission d’actes criminels ou terroristes et posent de nombreuses questions : les plateformes doivent-elles porter la responsabilité des contenus haineux publiés par leurs utilisateurs ? Les gouvernements sont-ils en droit d’imposer des règles de modération des contenus ? Comment tenir compte des gros écarts de moyens entre les grandes plateformes Web et les petits acteurs de l’Internet ?

 

  1. État des lieux des dispositions juridiques en Europe

Si les gouvernements se sont saisis du problème il y a quelques années, ils semblent désormais chercher un « coupable » et font pression sur les plateformes. Deux principales raisons à cela :

  1. L’amoncèlement d’affaires liant des actes terroristes ou contenus haineux aux réseaux sociaux, qui oblige les pouvoirs publics à réagir plus fermement. En témoigne l’Appel de Christchurch[1] du 15 mai 2019, réunissant, à l’initiative du Président de la République Emmanuel Macron et de la Première ministre de Nouvelle-Zélande, Jacinda Ardern, 10 chefs d’État et de gouvernement, dirigeants d’entreprises et organisations du numérique décidés à agir contre le terrorisme et l’extrémisme violent en ligne.
  2. Le phénomène fake news / deep fake, amplifié par les différents scandales d’ingérence étrangère dans les élections américaines et européennes, qui a créé des conditions favorables au renforcement du cadre réglementaire permettant de contrôler les réseaux sociaux. Conscients de l’influence politique considérable que ces fausses informations peuvent avoir sur l’opinion publique, les États ne semblent avoir d’autre choix que de se saisir de la question de la modération des contenus et du chiffrement. Le 5 juin 2019, plusieurs parlementaires européens ainsi que des membres de la société civile et de la Commission transatlantique sur l’intégrité des élections[2], ont ainsi signé conjointement une lettre appelant les présidents des institutions européennes, d’une part à coopérer dans la lutte contre les abus des plateformes sur les enjeux liés à la démocratie et aux élections, et d’autre part à renforcer les règlementations existantes en matière de responsabilité et de surveillance des réseaux sociaux.
  • A l’échelle européenne

En 2016, Facebook, Twitter, YouTube et Microsoft ont signé avec la Commission européenne un code de conduite contre les discours de haine, s’engageant ainsi à examiner en moins de 24 heures la majorité des signalements validés demandant la suppression des contenus.

Plus récemment, la révision en avril 2018 de la directive dite « SMA » sur les services de médias audiovisuels prévoit « des règles plus strictes en matière de lutte contre les discours haineux et contre la provocation publique à commettre des infractions terroristes » dans les services de médias audiovisuels. Elle s’applique désormais aux plateformes de communication publique et de partage de vidéos qui doivent ainsi prendre des mesures pour protéger les jeunes publics de ces contenus.

A cette directive s’ajoute la proposition de règlement sur le retrait des contenus terroristes en ligne, soumise en décembre 2018 et actuellement examinée au Conseil en première lecture, qui revoit à la hausse les obligations pesant sur les hébergeurs, notamment en matière de vigilance.

 

  • A l’échelle nationale

Chaque année, la France, le Royaume-Uni et l’Allemagne sont les premiers demandeurs auprès de Google d’informations sur ses utilisateurs (après les États-Unis). Sans surprise, ces trois pays disposent déjà ou développent un arsenal juridique visant à réglementer davantage les réseaux sociaux.

  • En Allemagne

L’Allemagne s’est très vite positionnée en chef de file de l’encadrement des plateformes du numérique, les menaçant de sanctions à plusieurs reprises. Alors que le pays avait obtenu dès 2015 un engagement de Facebook à effectuer le travail de modération en moins de 24 heures (soit un an avant le Code de conduite), Berlin n’a formalisé ce positionnement que le 1er janvier 2018 avec la loi NetzDG, dite de « contrôle des réseaux sociaux », reprenant l’obligation d’un délai maximum de 24 heures pour la suppression des contenus « manifestement illégaux », mais en l’élargissant à toutes les plateformes comptant au moins deux millions d’utilisateurs. En cas de manquement, une amende pouvant monter jusqu’à 50 millions d’euros est prévue.

Très vite considérée comme liberticide par ses opposants, et remarquée à l’occasion de la suppression temporaire du compte Twitter de la députée d’extrême droite Beatrix von Storch après un tweet jugé raciste, la loi semble présenter un bilan mitigé, sinon négatif, un an après sa mise en application. Alors que le délai de 24 heures a bel et bien été respecté, il n’a été appliqué qu’à peu de demandes, 80% des cas ayant été rejetés. Ce qui conduit un chercheur du Centre d’études des politiques européennes de Bruxelles (CEPS) à conclure qu’ « il est difficile, voire illusoire, pour un législateur d’avoir une influence sur la propagation de contenus haineux en ligne »[3].

C’est dans ce contexte pourtant que vient d’être présenté le rapport Online Harms[4] au Royaume-Uni et que vient d’être introduite la proposition de loi française visant à lutter contre la haine sur Internet, considérée par beaucoup comme inspirée du modèle outre-Rhin.

  • Au Royaume-Uni

Les autorités britanniques font pression sur les géants du Web depuis l’attentat de Londres du 22 mars 2017. Dans son rapport Online Harms, publié le 8 avril 2019, le gouvernement entend leur imposer un « devoir de protection », et envisage à cette fin de créer une structure dédiée indépendante en remplacement des agences de régulation existantes. Cette nouvelle structure aurait mandat pour poursuivre des cadres supérieurs de ces plateformes considérés comme responsables devant la justice, pour imposer des amendes allant jusqu’à 4% du chiffre d’affaires de la plateforme, pour décider de bloquer l’accès à cette dernière, et enfin pour commander des rapports de transparence annuels.

  • En France

La proposition de loi française visant à lutter contre la haine sur Internet, dite Loi Avia et adoptée par l’Assemblée nationale le 8 juillet (434 voix pour, 33 contre et 69 abstentions), vient s’ajouter à deux lois nationales, parfois considérées comme « obsolètes » dans la mesure où elles ont été promulguées avant l’avènement des réseaux sociaux :

  • La loi de 1881 sur la liberté de la presse, qui réprime aux articles 24 et 29 l’injure et la provocation à la commission d’infractions graves. Si elle a été durcie à plusieurs reprises ces dernières années (dureté des peines encourues et allongement du délai de prescription), les peines qu’elle prévoit restent difficilement applicables du fait notamment de l’utilisation de pseudonyme ;
  • La loi pour la confiance dans l’économie numérique (LCEN) du 21 juin 2004, qui impose aux opérateurs et prestataires de télécommunications, dans son article 6-l-7, de mettre en place un dispositif de signalement accessible et visible, et d’informer les opérateurs publics de toute activité illicite qui leur serait signalée.

Dans ce cadre-là, la proposition de loi, qui sera soumise au Sénat en septembre 2019, repose sur cinq piliers :

  • L’obligation pour les plateformes de retirer les contenus haineux sous 24 heures maximum après avoir reçu le signalement ;
  • Des sanctions financières dissuasives pour contraindre une plateforme à retirer un contenu (jusqu’à 4% du chiffre d’affaires) ;
  • Une procédure de signalement des contenus haineux simplifiée et unifiée ;
  • Une levée plus efficace de l’anonymat en cas de délit ;
  • Un blocage définitif des sites haineux.

Outre la simplification et l’accélération de la modération des contenus (comme chez son voisin allemand), cette proposition de loi entend donc imposer un véritable « devoir d’agir » et une prise de responsabilité des plateformes, en amont de l’intervention des autorités publiques.

Pour autant, si la France, tout comme ses homologues européens, souligne régulièrement la responsabilité des géants du Web, Facebook a aussi été salué par Paris à plusieurs reprises pour ses initiatives en la matière, telles que l’envoi d’un groupe d’experts français dans les locaux de Facebook en qualité d’observateurs sur les règles de modération. C’est peut-être ce climat favorable qui a décidé le principal réseau social à accepter, le 25 juin 2019, de fournir désormais à la justice française les adresses IP des auteurs de propos haineux, à l’image de ce qu’il fait déjà pour les contenus terroristes et pédo-pornographiques.

 

  1. Une progression pourtant lente et soumise à de nombreuses contraintes

Outre le débat sur les entraves à la liberté d’expression et les potentiels abus de modération liés à l’appréciation du caractère haineux ou terroriste d’un contenu, trois autres obstacles, trop souvent oubliés, ralentissent les initiatives de renforcement du cadre règlementaire :

  • « A chaque pays son Internet »[5]?

Différents modèles d’Internet continuent de s’opposer. Face à « l’Internet californien », libre et autogéré, prétendument « global », et à « l’Internet chinois » [voire à « l’Internet russe » pour certains], conditionné par un État central et des libertés réduites (1,5% des publications WeChat ont été censurées par la Guobao[6] en 2016), la plupart des pays européens prônent un « Internet européen », libre mais régulé. Cette conception pose deux problèmes :

  • D’une part, comment imposer une réglementation nationale aux plateformes dont les contenus sont partagés mondialement, si cette règlementation n’est pas compatible avec l’ensemble des autres régulations nationales ? Et dans quelle mesure l’Europe a-t-elle les moyens d’imposer des règles, conformes à sa vision de l’Internet, à des plateformes américaines telles que Facebook, qui portent une tout autre vision d’Internet ?
  • D’autre part, un « Internet européen » est-il viable s’il cherche à faire co-exister des positions plus ou moins conservatrices en matière de responsabilité et de surveillance ? En témoigne la position britannique, jugée comme étant la plus restrictive du continent, qui a vu son texte de loi, l’Investigatory Powers Bill, être épinglé par la Cour européenne des droits de l’homme (CEDH) en septembre 2018, deux ans après sa signature, et qui continue pour autant d’aller dans ce sens, si ce n’est encore plus loin, avec son Livre blanc Online Harms.

 

  • A chaque principe son risque d’incompatibilité juridique ?

Le principe de responsabilité que les États tentent d’imposer aux plateformes reste à ce jour incompatible avec la directive « e-commerce » [du Parlement européen et du Conseil du 8 juin 2000] qui n’a certes pas de pouvoir contraignant mais qui prévoit, dans ses articles 13 et 14, que les prestataires de service en ligne et les hébergeurs ne peuvent en principe pas voir leur responsabilité juridique engagée lorsqu’ils stockent des contenus malveillants, faisant l’apologie du terrorisme par exemple. Idem pour la directive SMA, qui contraint les plateformes à prendre des mesures pour lutter contre les contenus haineux sans pour autant remettre en cause l’irresponsabilité de ces dernières. Par ailleurs, la directive dispose qu’en matière de régulation, chaque État membre n’est compétent qu’à l’égard des plateformes établies sur son territoire. Or, en l’occurrence, la plupart et les plus influentes parmi les plateformes concernées sont non seulement non européennes mais ont une portée mondiale.

 

  • A chaque plateforme ses moyens ?

En matière de politique de lutte contre le terrorisme et la désinformation, force est de constater que les géants du Web ont tous pris des initiatives, en développant des algorithmes spécifiques et en utilisant des technologies telles que l’Intelligence artificielle (IA) ou le machine learning. Facebook est ainsi passé de 10 000 à 30 000 modérateurs et continue d’investir dans son laboratoire d’IA, ce qui permet au réseau social de supprimer 99,8% des faux comptes avant même qu’ils ne soient signalés par les utilisateurs. De son côté, Google a précisé qu’il continuait son engagement via l’approche « follow the money », interdisant de ce fait l’accès à sa régie publicitaire à 320 000 éditeurs de publicités malveillantes. Mais qu’en est-il des petites et moyennes plateformes, qui ne disposent pas forcément des outils nécessaires, des capacités techniques ou des ressources pour développer des centres de modération ou des politiques dédiées ? Le rapport Online Harms s’adresse par exemple à toutes les entités du Web, sans faire de distinction entre les géants de la toile et les start-ups. De même, certains acteurs français pourraient eux aussi avoir du mal à se conformer aux exigences de la proposition de loi en cours, même si cette dernière entend différencier les plateformes sur la base de leur trafic. Reste donc à trouver le bon équilibre entre tous ces acteurs.

 

[1] https://www.elysee.fr/emmanuel-macron/2019/05/15/appel-de-christchurch-pour-agir-contre-le-terrorisme-et-lextremisme-violent-en-ligne

[2] La Commission transatlantique sur l’intégrité des élections (Transatlantic Commission on Election Integrity en anglais) résulte de l’union outre-Atlantique d’acteurs issus de la sphère politique, de la technologie, des médias ainsi que du monde des affaires afin de stopper toute forme d’ingérence dans les élections étrangères à venir. Ce groupe, dont le mandat court jusqu’aux élections américaines de 2020, s’est donné pour ambition de sensibiliser le public, de travailler de concert avec les décideurs politiques pour encourager l’émergence de solutions politiques transatlantiques, et enfin de collaborer avec des entreprises spécialisées dans le développement d’outils de lutte contre la désinformation.

[3] https://www.france24.com/fr/20190510-macron-zuckerberg-haine-internet-loi-avia-netzdg-allemagne-echec

[4] https://www.gov.uk/government/consultations/online-harms-white-paper

[5] Titre d’un article de Courrier International du 10/04/2019.

[6] « Police politique » chinoise.