Appel de Christchurch : les 5 engagements clés pris contre la haine en ligne
ÉCLAIRAGE - 26 pays et géants d'Internet ont rallié "l'appel de Christchurch" contre les contenus en ligne "terroristes et extrémistes violents", deux mois après la diffusion en direct sur Facebook des attaques en Nouvelle-Zélande.

Deux mois après la diffusion en direct des attentats en Nouvelle-Zélande, "l'appel de Christchurch" prend forme. Par cet appel, initié par la première ministre néo-zélandaise Jacinda Ardern et Emmanuel Macron, les plateformes Internet s'engagent à prévenir le téléchargement et la diffusion de ces contenus, y compris par "leur retrait immédiat et permanent".
Leur objectif est d'éviter que ne circulent des images ou des messages "terroristes" en ligne comme celles du massacre de 51 musulmans à Christchurch le 15 mars, diffusé en direct sur Facebook Live pendant 17 minutes par le tueur, un suprémaciste australien.
L'appel de Christchurch a été approuvé par une vingtaine de chefs d'État, de gouvernement, et de patrons des géants du numérique, dont Google, Twitter et Facebook, tous présents à l'Élysée ce mercredi 15 mai. En revanche, les États-Unis ont annoncé qu'ils ne signeraient pas le texte, au nom de la liberté d'expression, même s'ils en soutenaient les principes.
"Nous pouvons être fiers (...) Nous avons pris des mesures concrètes afin d'empêcher qu'un drame comme celui de Christchurch ne se reproduise", a déclaré Jacinda Ardern. "Notre objectif est que ne se reproduise jamais la transformation d'internet en machine de propagande folle, un objectif recherché par les terroristes d'extrême droite comme par les terroristes islamistes", a renchéri Emmanuel Macron lors d'un point de presse.
1. Favoriser les signalements et la détection
En première ligne, les plateformes s'engagent à mettre à disposition de leurs utilisateurs des "mécanismes clairs, bien visibles et faciles à utiliser" pour signaler les contenus terroristes ou extrémistes violents. Ces mécanismes devront avoir une précision suffisante pour que chaque plateforme puisse "agir rapidement".
Ces dernières continueront à investir techniquement pour améliorer les capacités de détection, y compris via "les empreintes numériques" et "les technologies d'intelligence artificielle".
2. Davantage encadrer les vidéos en direct
Les géants du web s'engagent également "à identifier les contrôles appropriés sur la diffusion en direct" pour éviter que ne se reproduise un cas similaire à celui de Christchurch. Cela peut comprendre "l'amélioration des mesures de filtrage" et "la modération de certains services spécifiques de direct".
Ce mercredi 15 mai, Facebook a déjà annoncé restreindre l'usage de sa plateforme Live de vidéo en direct.
3. Partager de l'information
Les plateformes assurent qu'elles vont travailler "collectivement" avec les institutions publiques et la société civile pour "développer une compréhension commune des contextes" dans lesquels un contenu est publié, et mieux repérer ce qui peut être un contenu extrémiste violent.
Elles travailleront ainsi "pour créer de solides bases de données partagées pour accélérer l'apprentissage automatique et l'intelligence artificielle", et constituer des outils en code libre accessibles à tous pour détecter et retirer ces contenus.
4. Définir une procédure d'urgence commune
Dans la même lignée, Facebook, Google, Amazon, Twitter et Microsoft ont également pris l'engament de travailler ensemble, ainsi qu'avec les États et la société civile, pour créer "un protocole de réponse aux situations émergentes ou en cours (...) pour que l'information pertinente puisse être rapidement et efficacement partagée, traitée et utilisée par toutes les parties prenantes en un minimum de temps" (éviter par exemple qu'un contenu diffusé sur une plateforme ne se répande sur les autres, ndlr).
5. Éduquer les utilisateurs
Enfin, les cinq géants américains promettent des efforts "d'éducation du public" pour que celui-ci signale les contenus terroristes, et ne les répande pas quand ils apparaissent. Ils promettent aussi de s'attaquer "aux causes profondes de l'extrémisme et de la haine en ligne", en finançant la recherche sur le sujet et en soutenant les ONG qui luttent contre la haine et pour le pluralisme et le respect en ligne.
- Facebook, Twitter, YouTube... "Il ne faut pas avoir peur de les responsabiliser", selon Bost
- Christchurch, Tech for good : la France au centre des débats sur la régulation du Web
- San Francisco devient la première ville des États-Unis à interdire la reconnaissance faciale
- WhatsApp : pourquoi vous devez absolument mettre l'application à jour