La responsabilité de Facebook dans la commission de crimes de masse en Birmanie : Problématique abordée à la 47e Conférence du Conseil canadien de droit international
Ce fut une expérience enrichissante que de vivre ma première participation à la 47e conférence annuelle du Conseil canadien de droit international à Ottawa, les 1er et 2 novembre 2018. Le thème de cette conférence, « le droit international aux frontières », et la présence de plusieurs conférenciers reconnus ont suscité l’intérêt et la participation d’un public nombreux et diversifié. Pendant ces deux jours de conférence, plusieurs panels étaient présentés simultanément, à l’exception des quelques séances plénières. Parmi les nombreuses présentations auxquelles j’ai assisté, l’exposé de Kyle Matthews a retenu mon attention. Directeur exécutif du Montreal Institute for Genocide and Human Rights Studies (MIGHRS) de l’Université Concordia, M. Matthews a pris la parole pour discuter de la haine digitale et expliquer comment les réseaux sociaux ont été utilisés pour déshumaniser les Rohingya. Cette présentation est intervenue dans le cadre de la conférence sur « [l]e rôle du droit pénal international et de la Cour pénale internationale dans la réponse aux crimes allégués commis contre les Rohingya » modérée par la professeure Fannie Lafontaine. Deux points se sont successivement dégagés de cette discussion : une relation ambivalente existe entre les réseaux sociaux et les crimes de masse, et la responsabilité de Facebook dans la commission du génocide présumé contre les Rohingya en est un bon exemple.
Kyle Matthews a débuté sa présentation par une citation de Marshall McLuhan, philosophe canadien expert en théorie de la communication : « [a]ll wars have been fought by the latest technology available in any culture ». Les guerres d’aujourd’hui ne dérogent pas à cette pensée, car elles font apparaître des armes de plus en plus sophistiquées telles que les drones, les armes autonomes, les missiles téléguidés et à longue portée, etc. Elles incitent également à l’innovation dans le domaine des technologies de l’information et de la communication ou récupèrent à leurs fins celles déjà existantes. Ainsi, les réseaux sociaux se présentent comme un couteau à double tranchant, car ils peuvent être utilisés autant de manière positive que négative. En lien avec les crimes de masse, ces outils peuvent servir à promouvoir et à protéger les droits de la personne ou, à l’inverse, à diffuser des discours haineux et à inciter à la violence contre des minorités.
L’utilisation négative des médias en général et des réseaux sociaux en particulier a été prise en compte en droit international pénal. Elle est considérée comme faisant partie, de façon incidente, des actes prohibés par l’article 3 de la Convention pour la prévention et la répression du crime de génocide de 1948. La diffusion de la violence peut être considérée comme un acte d’incitation directe et publique à commettre le génocide.
Avant l’arrivée des réseaux sociaux tels que connus aujourd’hui, d’autres technologies de l’information et de la communication avaient précédemment servi à répandre la haine et à encourager à commettre le génocide. Ce fut le cas de l’utilisation de la Radio Rwanda et de la Radiotélévision des Mille Collines (RTLM) en 1994 au Rwanda. Kyle Matthews a rappelé que, devant le Tribunal international pénal pour le Rwanda (TPIR), deux dirigeants de la RTLM ont été accusés de génocide, d’incitation au génocide et de crimes contre l’humanité suite à la diffusion de messages appelant à la violence. La communauté internationale a également condamné ces messages de haine diffusés par ces radios et a appelé à leur fermeture.
A contrario, les réseaux sociaux comportent certains avantages : il est dorénavant plus facile de diffuser de l’information sur les crimes de masse pour le grand public, et ces plateformes permettent plus aisément de réunir des éléments de preuve. La Cour pénale internationale (CPI) a pour la première fois lancé deux mandats d’arrêt en 2017 et 2018 contre Mahmoud Mustafa Busayf Al-Werfalli, un haut gradé de l’armée nationale libyenne, en se basant uniquement sur la preuve numérique. YouTube a récemment développé un algorithme qui supprime automatiquement des vidéos promouvant la violence : pour Kyle Matthews, ce système, bien qu’utile pour la prévention, fait disparaître des éléments de preuve essentielles qui sont susceptibles d’être utilisées devant un tribunal.
Le conférencier a insisté sur le fait que Facebook est actuellement le réseau social le plus populaire au monde. Au troisième trimestre 2018, Facebook comptait plus de 2,27 milliards d’utilisateurs actifs chaque mois et 1,49 milliard d’utilisateurs actifs chaque jour. C’est donc un moyen important de communication qui a été utilisé de façon néfaste dans la situation Rohingya. Entre mars 2017 et févier 2018, 10 % des discours des hommes politiques de l’État sur Facebook étaient des discours haineux au regard de la politique officielle de Facebook. Par exemple, le célèbre bouddhiste Ashin Wirathu publiait des messages malveillants tels que : « [m]ay the terrorist dog kalars fall fast and die horrible deaths ». Plusieurs autres types de messages négatifs étaient partagés, notamment de la désinformation, des fausses rumeurs, des vidéos mettant en scène des bouddhistes victimes d’attaques des Rohingya, des discours d’incitation à la violence à l’égard des minorités musulmanes par l’utilisation des termes irrespectueux comme « kalars » et « terroristes benghali » … La haine virtuelle était à son comble.
Les Nations Unies sont arrivées à la conclusion que Facebook était responsable d’avoir participé à la diffusion de discours appelant à la violence contre les minorités Rohingya. Marzuki Darusman, président de l’Independent International Fact-Finding Mission on Myanmar, l’a confirmé en ces termes lors de la 39e session du Conseil des droits humains :
Dans la même veine, Yanghee Lee, enquêtrice des Nations unies pour le Myanmar, a ajouté : « [i]t was used to convey public messages but we know that the ultra-nationalist Buddhists have their own Facebooks and are really inciting a lot of violence and a lot of hatred against the Rohingya or other ethnic minorities ». Ce constat fut confirmé par le rapport How Social Media Spurred Myanmar's Latest Violence d’Alan Davis de l’Institute for War and Peace reporting (IWPR).
Le conférencier a énuméré les défaillances du réseau social Facebook en lien avec la situation au Myanmar. Premièrement, pour les milliers d’utilisateurs au Myanmar, Facebook ne compte qu’une poignée de personnes parlant le birman affectées au service du contrôle des contenus. Ce nombre semble insuffisant pour assurer un réel contrôle. Deuxièmement, les outils d’intelligence artificielle n’assurent qu’une surveillance partielle à l’égard des milliers de vidéos partagées par les abonnés. Conséquemment, les messages de haine ne sont pas toujours détectables par ces outils. Troisièment, le temps de réactivité vis-à-vis des messages de haine et de violence est trop long pour être efficace. Même lorsque les utilisateurs le signalent, il est possible que le réseau social ait besoin de 48 heures pour supprimer un tel message. Par exemple, Facebook a laissé une période de temps importante s’écouler avant de supprimer les comptes de certains leaders militaires et religieux du Myanmar de sa plateforme. Quatrièmement, la responsabilité de gestion est transférée à de petites compagnies, ce qui permet aux dirigeants de Facebook d’ignorer les alertes à la violence, le manque de personnel et le trop faible nombre de bureaux locaux.
En plus de ces problèmes spécifiques liés à la situation au Myanmar, M. Matthews a identifié des erreurs intrinsèquement liées à Facebook. Ces anomalies peuvent également être attribuées aux autres plateformes virtuelles, car elles concernent la conception même des réseaux sociaux. D’une part, les messages publiés par un utilisateur qui entraînent le plus de réactions des autres utilisateurs (en termes de commentaires, d’appréciations, de partages, etc.) sont automatiquement mis en première ligne des actualités. Les algorithmes de cette programmation particulière privilégient donc involontairement la négativité. D’autre part, les réseaux sociaux permettent à n’importe quelle personne dotée d’un téléphone intelligent de diffuser la haine. Ce sont des plateformes ouvertes à tout genre de publication haineuse, en l’absence d’un mécanisme de prévention.
Kyle Matthews a terminé sa présentation par quelques réflexions et suggestions. Tout d’abord, il est essentiel de réaliser que les discours racistes et abusifs contre les minorités, même diffusés virtuellement, peuvent conduire à de réels actes de violence. Par conséquent, les gouvernements doivent jouer un rôle important en adoptant des politiques et en engageant des experts qui feront le lien entre les réseaux sociaux et la prévention des crimes de masse. Les implications sur la paix et la sécurité des personnes supposent une plus grande responsabilité de l’État dans la gestion de ces réseaux sociaux. Ensuite, les organisations de la société civile qui s’intéressent aux questions de violence et de haine sur les réseaux sociaux doivent être aidées et encouragées. Avec un soutien adéquat, elles peuvent encadrer les discours haineux et les incitations à la violence en temps réel. Des méthodes de prévention peuvent être développées en trois étapes : par la recherche, l’identification et la publicisation des extrémistes en vue d’interrompre leurs messages. Enfin, pour atteindre ces objectifs, une coopération et une responsabilisation plus accrues du secteur privé sont nécessaires. Google, Facebook, Twitter et les autres réseaux sociaux doivent se doter d’un système de contrôle afin de s’assurer que leur plateforme n’est pas utilisée pour fomenter des atrocités. Il faut noter à ce propos que, suite aux diverses réactions mentionnées précédemment, Facebook a engagé des actions pour lutter contre la prolifération de messages violents. Un représentant du réseau social a d’ailleurs déclaré : « [i]f a person consistently shares content promoting hate, we may take a range of actions such as temporarily suspending their ability to post and ultimately, removal of their account ». Le compte Facebook de Ashin Wirathu a par exemple été supprimé pour l’empêcher de continuer à répandre des discours haineux contre les minorités Rohingya. C’est une action à encourager, mais qui devrait intégrer les paramètres mentionnés par Kyle Matthews.
Je garde un bon souvenir de cette première participation à la conférence annuelle du Conseil canadien de droit international. Les différentes présentations portaient sur des questions actuelles en droit international et permettaient des échanges intéressants et enrichissants entre professionnels et étudiants. J’ai apprécié la possibilité d’y rencontrer des juristes internationalistes et avocats canadiens et étrangers. Ce fut une belle expérience à revivre l’année prochaine.
La publication de ce billet et la participation de l’auteur à la 17e Assemblée des États Parties à la Cour pénale internationale sont financées par le Partenariat canadien pour la justice internationale et le Conseil de recherche en sciences humaines du Canada.