Une loi européenne pour censurer les mouvements sociaux sur internet ?
Par La Quadrature du net, le 13 Déc 2018 - Investig'action
Alors que la contestation nourrie par le mouvement des gilets jaunes grandit, alors qu’enflent les rumeurs d’une possible censure du mouvement par Facebook1, livrons-nous à un peu de politique-fiction : comment la future loi de censure antiterroriste que la France cherche à imposer à l’Union européenne s’appliquerait-elle à des mouvement sociaux tels que celui des gilets jaunes ?
C’est un texte dont personne ne parle ou presque, et il est pourtant fondamental pour l’avenir des libertés publiques à l’échelle de l’Europe entière. Présenté au mois de septembre, il s’agit du règlement européen dédié à « la prévention de la diffusion de contenus à caractère terroriste en ligne ».
L’article 4 du règlement permet aux autorités publiques de demander directement à n’importe quel hébergeur le retrait d’un contenu relevant de l’apologie du terrorisme. En pratique, cela entérine la situation qui prévaut dans tous les pays réprimant l’apologie ou la provocation au terrorisme. Ainsi en France, depuis 2015, le ministère de l’Intérieur est compétent pour censurer la provocation ou l’apologie du terrorisme sur Internet (si l’hébergeur n’empêche pas l’accès au contenu visé sous 24 heures, alors le blocage de l’ensemble du site peut être mis en place par les fournisseurs d’accès à Internet français). Le tout sans aucun contrôle judiciaire préalable, dans le cadre d’une procédure secrète. Ainsi, en 2015, la France est devenue (devant l’Inde et la Turquie) le pays qui a obtenu le plus grand nombre de suppressions de pages Facebook (38 000 suppressions en un an, pendant que l’Allemagne ou Israël n’en obtenaient que 500).
Là où le règlement européen « innove » radicalement, c’est qu’il impose qu’un tel retrait par les hébergeurs intervienne en un délai record de une heure, sous peine de sanctions financières. Il prévoit aussi de passer par une voie encore plus discrète pour censurer ces contenus : les « mesures proactives », ces outils de censure automatique déjà développés par les grandes plateformes comme Facebook ou YouTube et qui pourront être paramétrés en concertation avec les autorités (article 6 du règlement). Comme nous l’avons déjà expliqué (lire notre analyse plus complète), le futur règlement européen prévoit de généraliser ces outils à l’ensemble des acteurs du Web (non seulement Facebook et YouTube mais aussi OVH, Gandi, NextCloud, Mastodon, etc.), voire même aux outils de messagerie (WhatsApp, Signal, Télégram, Protonmail, etc.)2. Concrètement, tous les acteurs du numérique devront développer des « mesures proactives pour protéger leurs services contre la diffusion de contenus à caractère terroriste ».
Mais du coup, c’est quoi, un « contenu à caractère terroriste » ?
L’article 2 du règlement explique que les contenus auxquels le texte s’appliquera sont des textes, images ou vidéos qui « provoquent à la commission », « font l’apologie », « encouragent la participation » ou « fournissent des instructions sur des méthodes ou techniques en vue de la commission d’infractions terroristes ». Tout repose donc sur ces « infractions terroristes », définies par le droit de l’Union à l’article 3 de la directive 2017/541.
La liste est longue. On y retrouve évidemment les meurtres visant à terroriser la population. Mais aussi des actes plus éloignés et moins attendus, tels que le fait de « provoquer une perturbation grave ou une interruption » d’un système informatique (un ordinateur, un site Web…) ou de « causer des destructions massives […] à un lieu public ou une propriété privée, susceptible […] de produire des pertes économiques considérables ». Pour être qualifiés d’infractions terroristes, ces actes doivent être commis dans le but de « contraindre indûment des pouvoirs publics ou une organisation internationale à accomplir ou à s’abstenir d’accomplir un acte quelconque » (retirer un projet de loi, par exemple) ou dans le but de « gravement déstabiliser […] les structures politiques, constitutionnelles, économiques ou sociales fondamentales d’un pays ». La simple menace de commettre de tels actes entre aussi dans la définition.
Bref, en droit européen, le piratage ou la destruction massive de biens, ou la menace de le faire, sont des « infractions terroristes » dès lors qu’il s’agit d’influencer une décision politique ou de déstabiliser des institutions.
Maintenant que le cadre est posé, commençons la politique-fiction. Parmi les contenus susceptibles d’être publiés sur Internet par des gilets jaunes, quels sont ceux qui pourraient être considérés comme relevant du « terrorisme » (selon les très larges définitions européennes) par Facebook et Google (soumis à la menace de sanctions en cas d’échec) ou par la police ? Par exemple :
- un appel à manifester sur les Champs-Élysées, alors que le rassemblement précédent a conduit à d’importantes détériorations matérielles et enfonce le gouvernement dans une crise politique ;
une vidéo qui, prise depuis le balcon d’en face, filmerait la destruction d’une banque ou d’un fast-food, accompagnée d’un commentaire audio du spectateur surpris, du type « ahahah, c’est bien fait pour eux » ;
- une vidéo d’altercations agressives entre manifestants et CRS au prétexte qu’elle serait diffusée par une personne se réjouissant que les autorités publiques soient ainsi remises en cause ;
- un texte menaçant le gouvernement de blocage généralisé de l’économie ou de grève générale ;
- une invective orale du type « si Macron ne démissionne pas, on va venir mettre le feu à l’Élysée » ;
- un communiqué justifiant le fait d’avoir détruit un véhicule de police ;
etc.
En appliquant le droit à la lettre, on pourrait se demander lequel de ces contenus ne devrait pas être censuré automatiquement par les plateformes du Web une fois que le règlement anti-terroriste sera entré en application. De même, en théorie, ces contenus pourraient être censurés sur simple demande de la police.
Même si, pour l’heure, il s’agit encore de politique-fiction, le droit actuel en France va déjà en ce sens, comme l’illustre le type de discours qui ont pu passer pour de l’« apologie du terrorisme » ces dernières années. Par exemple, des peines de prison ferme pour des provocations lancées par certain·es au sujet des attentats de janvier 2015, ou l’injonction faite par le gouvernement fin 2016 à deux sites participatifs pour qu’ils censurent un article revendiquant l’incendie d’un hangar de gendarmerie commis en solidarité avec des personnes poursuivies en justice dans le cadre des manifestations contre la loi travail.
Censure privée, censure totale
Une censure de tels contenus pourrait donc intervenir de deux manières. C’est en quelque sorte « ceinture et bretelles » : quand les « mesures proactives » prises par un réseau social comme Facebook n’auront pas suffi à bloquer les contenus visés, la police pourra prendre le relais, pouvant exiger des services défaillants la suppression d’un contenu dans un délai d’une heure. Tout cela sans l’autorisation préalable d’un juge. Les acteurs concernés s’exposeront à des sanctions s’ils échouent trop souvent à censurer dans le délai d’une heure (article 18).
Bref, pour éviter d’avoir à répondre toute la journée aux demandes des polices des 28 États membres de l’Union européenne, et de subir des sanctions en cas d’échecs à y répondre dans l’heure, les services Web auront franchement intérêt à détecter à l’avance et le plus strictement possible tout ce qui ressemblera de près ou de loin à un « contenu à caractère terroriste », défini de façon extrêmement large.
Or, il est clair que les outils mis au point par Facebook et Google s’imposeront à l’ensemble du Web, même en dehors de leur plateforme, où certains pourraient chercher refuge. De ce que nous ont clairement expliqué des gens du gouvernement (revoir notre compte-rendu) et de ce qui apparaît dès 2017 dans les publications de la Commission européenne3, l’objectif de ce texte est au final d’imposer les filtres automatiques mis au point par les grosses plateformes à tous les acteurs du Web, petits ou grands, européens ou non. Ces derniers devront automatiquement respecter une large « liste noire » de contenus considérés comme illicites par les prétendues intelligences artificielles de Facebook et Google, qui décideront seuls et selon leurs propres critères s’il est autorisé ou non d’appeler à tel mouvement ou d’applaudir telle action contestataire.
Soyons clairs : notre analyse ne cherche pas à savoir quels propos devraient ou non être tenus en ligne, ni quelles revendications seraient ou non légitimes. Notre question est de savoir si nous acceptons de déléguer à la police et à une poignée d’entreprises privées hégémoniques, qui ne sont soumises à aucun contrôle démocratique, le rôle de juger nos actes et nos opinions, et de modeler le débat public en conséquence. Nous répondons résolument que non : seul un juge, indépendant des pouvoirs politiques et économiques, doit pouvoir censurer les propos qui, d’après des lois adoptées en bonne et due forme, seraient susceptibles de nuire de manière disproportionnée à autrui.
C’est tout l’inverse que propose Macron, principal promoteur du futur règlement européen : en cédant les pouvoirs de l’État aux géants du Web, il s’imagine pouvoir échapper à toute responsabilité politique en cas de censure abusive et massive du Web.
Ce règlement européen est une loi de censure que les gouvernements français et allemands souhaitent faire adopter d’ici aux prochaines élections européennes, en mai. Ils ont déjà réussi à faire accepter hier leur projet aux autres gouvernements européens, à une vitesse jamais vue au sein de l’Union européenne. Les eurodéputés et toutes celles et ceux qui entendent se présenter aux prochaines élections européennes doivent faire connaitre leur opposition à ce texte scélérat.
Aucun commentaire:
Enregistrer un commentaire