Le 15 mars 2019, l’attaque de Christchurch en Nouvelle-Zélande a été retransmise en direct sur Facebook : si le géant l’a supprimé après un peu plus d’un quart d’heure, le massacre a pu être vu, si ce n’est enregistré par de nombreux individus. Cette diffusion interroge. Ainsi, l’exposition croissante de chacun à Internet et à ses contenus potentiellement malveillants a amené l’UE à légiférer afin d’endiguer, autant que faire se peut, la diffusion de contenus à caractère terroriste. Il s’agit dans une plus large mesure de lutter contre la radicalisation en ligne. L’UE n’a cependant pas attendu une telle catastrophe pour parer à ce type de diffusions.
En 2017, une directive relative à la lutte contre le terrorisme a été adoptée, afin d’harmoniser les législations propres aux Etats membres. En son article 21, la directive introduit la notion de lutte « contre les contenus en ligne de provocation publique » : les Etats membres tentent en effet de supprimer les contenus incitant à « commettre une infraction terroriste » bien que ceux-ci soient en dehors de leurs frontières. Si cela n’est pas possible les Etats membres prennent les dispositions nécessaires pour bloquer ce contenu.
Toutefois et afin de renforcer le cadre normatif en matière de prévention de la diffusion en ligne de contenus à caractère terroriste, la Commission européenne a proposé un règlement en septembre 2018. Des mesures de prévention contre l’utilisation abusive des services d’hébergement concernant la diffusion des contenus à caractère terroriste en ligne ont été insérées. Mais, la mesure phare de cette législation consiste en la suppression de toute publication ayant un contenu violent à caractère terroriste dans l’heure suivant sa mise en ligne, par les plateformes concernées.
En avril 2019, les eurodéputés de la commission LIBE du Parlement ont apporté quelques assouplissements à la proposition initiale de la Commission européenne. Le retrait dans l’heure a porté à débats au sein de la commission LIBE : pour les uns c’est un temps trop long alors que pour d’autres, cet espace-temps est trop court pour les plateformes plus petites qui n’ont pas forcément les ressources nécessaires pour agir aussi rapidement. Si le groupe des Verts/ALE a proposé une alternative : retirer le contenu provocateur « le plus tôt possible », cela a été rejeté. Finalement, les entreprises de taille moyenne qui reçoivent pour la première fois un ordre de retrait devrait disposer d’un délai de douze heures pour s’informer de la procédure à suivre pour retirer ce contenu. L’ordre de retrait est donné par une autorité compétente qui ne peut agir de manière transfrontalière : elle peut ordonner un retrait seulement aux entreprises qui ont leur siège sur le même territoire que celle-ci. A l’inverse de la proposition de la Commission européenne, les plateformes ne sont pas obligées de mettre en place une détection pro-active du contenu. Des mesures plutôt de l’ordre du facultatif donc après les discussions au Parlement, qui a adopté le règlement en première lecture. Le texte est désormais en attente : le Conseil n’a pas encore communiqué sur sa position en première lecture.
Aussi, si l’UE renforce son arsenal législatif en matière de lutte contre la diffusion de contenus à caractère terroriste et de lutte contre la radicalisation en ligne, le Président français, E. Macron ainsi que la Première Ministre néo-zélandaise ont, le 15 mai 2019, lancé l’Appel de Christchurch. Non contraignant, il s’agit d’une action commune appelant les plateformes en ligne à contrer toute forme de cyber haine et de radicalisation en ligne. Une vingtaine de pays s’y sont associés tout comme certaines grandes entreprises de l’Internet telles que Google, Facebook ou Microsoft. Le texte invite également les Etats et entreprises à travailler de concert au développement d’outils permettant de bloquer des messages à caractère terroriste.