info@zendata.security

La responsabilité d’internet et des réseaux sociaux dans l’attaque de la mosquée en Nouvelle-Zélande

Le 15 mars dernier, la Nouvelle-Zélande s’est trouvée sous le choc de la plus grave attaque terroriste sur son territoire et confrontée pour la première fois de son histoire à la violence des « suprémacistes blancs ». Les massacres, perpétrés dans deux mosquées de Christchurch, ont fait 50 victimes et sont la pire tuerie commise spécifiquement contre des musulmans dans un pays occidental.

Les discours haineux existent depuis des centaines d’années ; toutefois, les outils et les moyens de distribution de ces propos évoluent continuellement et sont maintenant facilités et amplifiés par internet.

Internet a un rôle très prépondérant dans la radicalisation et le passage à l’acte de nombreux extrémistes. Ces dernières années, nous avons observé l’importance d’internet dans le recrutement d’apprentis djihadistes de l’État Islamique ; sans surprise, nous pouvons trouver de nombreuses similitudes entre les méthodes d’exploitation d’internet utilisées dans l’attaque de Christchurch et celles ISIS.

De nombreux réseaux sociaux ont été utilisés dans le cadre de cette attaque, notamment pour la promouvoir, l’annoncer, la diffuser et la féliciter. On peut voir se dessiner deux différents types de plateformes:

La première catégorie se veut être responsable : elle définit une charte éthique de ce qui peut être dit ou fait, et effectue un certain nombre d’efforts pour limiter, voir interdire la diffusion de contenu. Facebook, YouTube et Twitter sont parmi les plus connus de ce genre de plateforme. Bien que le succès du contrôle reste discutable, il y a une claire intention et un investissement en ce sens de la part de ces compagnies.

Le deuxième type de plateforme, moins populaire et ciblant des internautes plus atypiques, profite d’être moins connu et moins visible pour « encourager » des groupes extrémistes et radicaux à se réunir et partager leurs points de vue. C’est particulièrement sur ces sites (plus souvent sous format de forums que de réseaux sociaux) que l’on voit de nombreuses personnes se radicaliser et être recrutées. On y retrouve notamment 8chan (lieu où l’attaquant de Christchurch a annoncé son passage à l’acte peu de temps avant de l’exécuter), Gab, Voat et de nombreux autres sites du dark web. Dans leurs forums, des « experts » expliquent entre autres comment contourner les règles des grands réseaux sociaux (de la première catégorie décrite ci-dessus) afin de promouvoir un discours haineux sans être banni. Ainsi, ils peuvent parvenir à atteindre un public plus vaste que celui des réseaux marginaux et spécialisés.

8chan est un forum internet principalement utilisé pour des ralliements d’extrême droite, masculinistes, antisémites, anti-immigration et anti-islam. 8chan héberge intentionnellement du contenu haineux, soutenant et promouvant des attaques et de la violence.

Deux grandes questions se posent concernant internet :

Avons-nous le droit d’exprimer toute opinion ?

Quelle est la responsabilité des plateformes qui facilitent la transmission du message ?

Aux USA, le principe de liberté d’expression autorise à dire presque tout, inclus des discours haineux promouvant le racisme. Ceci n’est pas le cas en Europe ni en Suisse (qui interdit, par exemple, l’incitation à la violence et le négationnisme). Les réseaux sociaux grands publics, ayant notamment des bureaux de représentation à travers le monde, appliquent les lois locales des juridictions concernées. Toutefois, dans le cas des forums alternatifs, la seule façon de bloquer du contenu est de déposer un recours auprès d’un juge dans la juridiction où se trouve le forum. Ainsi, lorsque le contenu d’un site n’est pas illégal auprès de la juridiction locale du site, l’application d’une loi plus restrictive d’un pays tiers n’est pas envisageable. Il y a une certaine légitimité à cela : on ne fermera pas un site suisse qui explique l’histoire du peuple tibétain parce qu’il est illégal d’en parler en Chine ; pareillement, un site web promouvant la suprématie des blancs ne sera pas fermé aux USA parce que ces propos sont illégaux en Nouvelle-Zélande (toute proportion gardée, bien entendu).

À la suite de l’attentat de Christchurch, il y eu de fortes réactions de compassion sur Facebook, mais aussi certains utilisateurs et groupes qui approuvaient, félicitaient et se réjouissaient de l’attaque en partageant, entre autres, ses images (diffusées en live sur Facebook). Les communautés et groupes d’utilisateurs sur Facebook, faisant la promotion et soutenant des actes haineux, se cachent derrière leur droit à la liberté d’expression et la légalité de leurs propos. Ainsi, se pose la question de liberté d’opinion : faut-il bannir tout utilisateur de Facebook qui partagerait la vidéo, afficherait un commentaire positif ou admiratif de l’attaque, ou mettrait simplement un like ? Dans le cas affirmatif, le bannissement serait-il définitif ou provisoire ? Pour le pseudonyme ou pour la personne réelle ?

Notre deuxième question adresse la responsabilité des plateformes qui transmettent les messages de leurs utilisateurs. Sont concernés les réseaux sociaux, les CDN (réseaux de diffusion de contenu, qui facilitent la distribution de contenu internet à travers le monde en offrant, entre autres, l’anonymisation des serveurs réels), les datacenters, les services cloud et les FAI (fournisseurs d’accès internet). Est-ce que ces derniers doivent-ils être considérés comme étant publicateurs ou postiers ? Doivent-ils contrôler le contenu distribué sur leurs plateformes et avec quelle granularité ? Aussi, est ce qu’une entité privée peut bannir du contenu qui lui semble inapproprié même s’il n’est pas illégal ? Est-ce de la censure ? Les décisions d’une plateforme ayant une certaine taille ou un certain niveau d’influence doivent-elles nécessairement être prises de façon démocratique ?

Mon opinion est que les forums, sites et réseaux sociaux portent la responsabilité du contenu partagé sur leurs plateformes et doivent bloquer ou bannir les utilisateurs et groupes ne suivant pas les règles, qu’elles soient les règles internes de la plateforme, éthiques ou morales. Les plateformes sont des publicateurs, et non pas des postiers qui délivrent des messages ; quelle que soit leur position dans la chaine de distribution, ils ont un rôle de filtrage, modération et gestion du contenu.
Je juge inacceptable que tout discours soit autorisé parce qu’il n’enfreint pas de limites légales ; une limite éthique et humaine doit aussi être exigée d’internet.

Une autre problématique concerne les datacenters, service cloud, CDN, FAI, n’ayant pas les accès suffisants pour bloquer un utilisateur spécifique : ils ont toutefois les moyens de bloquer les sites web qui enfreignent les règles de façon répétée ou intentionnelle. Ainsi, un site comme 8chan devrait être bloqué par CloudFlare, Amazon et Swisscom.

Si des forums comme 8chan, Gab ou Voat étaient enrayés par les Datacenters, service cloud, CDN et FAI, ils seraient obligés de se nicher dans les « souterrains » du web (TOR, etc.), devenant ainsi plus difficiles d’accès surtout pour les visiteurs occasionnels et le curieux.

Il est important de souligner que ces compagnies de publication et distribution de contenu sont extrêmement rentables et génèrent beaucoup de profit. Pourtant, elles négligent souvent d’assumer les responsabilités qui leur incombent.
L’industrie pharmaceutique, par exemple, se doit de tester et valider les médicaments, s’assurer que les consommateurs les utilisent correctement et aussi rappeler les médicaments en cas de problème ; malgré cela, les sociétés pharmaceutiques restent très rentables. Une entreprise ne peut pas avoir que du bénéfice sans assumer ses responsabilités et ceci fait partie des règles du jeu.

CloudFlare (un des plus grands CDN sur le marché) mérite une attention toute particulière, car il fournit son service à 8chan et refuse catégoriquement de le suspendre, même après la dernière attaque, en argumentant la liberté d’expression.

CloudFlare fait valoir qu’il ne fournit que l’infrastructure de distribution et que son rôle ne consiste pas à faire de la modération. Pourtant, en tant que compagnies privées, CloudFlare et d’autres plateformes peuvent décider de faciliter la distribution de certains contenus, choisir de refuser des clients tels que 8chan ou mettre en place des règlements internes qui les autoriseraient à agir directement sur du contenu inapproprié.

Ce n’est pas la première fois que CloudFlare prend position à ce sujet ; lors de l’attaque de la Synagogue de Pittsburgh, l’extrémiste avait exprimé son intention sur le forum Gab. Suivant l’attaque, GoDaddy, Joyent, PayPal, et Stripe avaient bloqué leur soutien à la plateforme, la mettant ainsi hors-ligne, jusqu’à ce que Cloudflare lui donne le moyen de retourner sur le réseau. Pourtant, sans aucune ambiguïté sur ses intentions, Gab se définit dans sa page Wikipédia comme une plateforme destinée à « une audience marquée à l’extrême droite, comme les néo-nazis, les conservateurs, l’alt-right et les suprématistes blancs ».

YouTube, de son côté, présente régulièrement du contenu extrémiste et pousse à sa consommation à travers ses algorithmes de recommandation et de polarisation. Pour maintenir ses visiteurs sur sa plateforme, YouTube proposera des vidéos de plus en plus extrêmes et dogmatiques. Elle ne suggérera pas du contenu alternatif qui pourrait balancer les arguments ou les points de vue, car les utilisateurs, de façon générale, ne souhaitent visionner que des opinions qui leur plaisent et qu’ils partagent. YouTube va trouver des vidéos ayant le même point de vue que celui de l’internaute et polariser son opinion de façon encore plus extrême, pour peut-être aboutir à une vidéo pointant sur 8chain, ainsi l’encourageant involontairement à rejoindre cette communauté. C’est par ce processus qu’une personne recherchant, par exemple, « il y a-t-il trop de musulmans dans mon pays » sur Google, risque de visionner des vidéos d’extrémistes et rejoindre ensuite des groupes sur des forums dédiés à ce sujet.

Une problématique supplémentaire et plus compliquée à résoudre concerne les groupes et chats privés, tels que WhatsApp et Messenger. Avec les technologies de cryptage de bout en bout qui ne cessent de se généraliser, il n’est plus techniquement possible de contrôler et gérer le contenu partagé. Aussi, l’équilibre entre la liberté d’expression sur internet et la préservation de la vie privée, ainsi que la sécurité, doit être trouvé et coordonné au niveau mondial.
Veut-on créer un internet comme en Chine avec une censure systématique et le « great firewall » afin de contrôler le contenu disponible et s’assurer que les internautes ne consomment que du contenu défini comme approprié ? Certainement pas ! Mais, à la suite de l’attaque en Nouvelle-Zélande, un certain nombre de sites (notamment ceux qui hébergeaient les vidéos de l’attaque) devraient simplement être bannis par les FAI.

L’internet 2.0 est un outil qui se définit par ce que les internautes et la communauté créent et mettent en ligne. C’est donc la responsabilité de ces internautes et communautés de refuser que les plateformes (Facebook, CloudFlare, WordPress, Wix, datacenter, FAI, etc.) utilisées, participent dans la distribution et le soutien de contenu haineux et promouvant la violence. C’est finalement notre responsabilité à tous, nous les utilisateurs, de boycotter les plateformes ne se conformant pas à notre éthique et qui se refusent de bannir les utilisateurs, groupes, forums ou réseaux sociaux dont le langage met en danger nos valeurs.

Isabelle Meyer
Isabelle Meyer

I'm a passionate blogger who shares insights, experiences, and thoughts on various topics through my blog, connecting with a like-minded online community.

Sign up for our Cybersecurity Newsletter