Syrie : les géants du web "effacent l'Histoire"
article

Syrie : les géants du web "effacent l'Histoire"

Facebook, YouTube ou Twitter suppriment des preuves de crimes de guerre

Offert par le vote des abonné.e.s
En durcissant et automatisant leurs processus de modération des contenus pendant le Covid-19, les grandes plateformes du web ont fait disparaître des centaines de comptes de journalistes et activistes syriens. Et des milliers de preuves de crimes de guerre. Mais cette pratique est plus ancienne que le Covid. Enquête.

Neuf ans de violence, 384 000 morts et des dizaines de millions de déplacés. "Pire catastrophe provoquée par l'Homme depuis la Seconde guerre mondiale" selon l'ONU, la guerre civile en Syrie, qui oppose depuis 2011 le gouvernement de Bachar Al-Assad à ses opposants, est celle de tous les superlatifs. Unique par sa complexité - elle voit s'entremêler rebelles, groupes djihadistes et blocs de puissances étrangères -, elle l'est également par sa médiatisation. Bombardements, exactions, massacres... à l'intersection des réseaux sociaux et des téléphones portables, le conflit a généré une surabondance de vidéos, de photos et de témoignages, postés très rapidement sur Facebook, Twitter, Instagram ou Whatsapp. Grâce à ces milliers de vidéos syriennes, le monde s'est immergé dans les tragédies d'Alep, d'Homs, aujourd'hui d'Idlib, et saura les prochains massacres avec un degré de détail et d'exhaustivité inégalé. La guerre en Syrie est sur YouTube, à quelques clics de nos tranquilles chemins de randonnée numériques.

En neuf ans, cependant, le débat sur la modération du web a énormément évolué. En 2020, les plateformes, sous la pression de certains États (notamment la France et l'Allemagne), ont abandonné l'approche permissive de leurs débuts pour concentrer leurs efforts sur la modération des contenus, particulièrement ceux jugés violents ou "extrémistes". Cette tâche sisyphéenne est de plus en plus automatisée via des algorithmes, qui parcourent sans relâche les vidéos postées pour vérifier leur contenu et les supprimer lorsqu'elles contreviennent aux sacro-saintes conditions générales d'utilisation (CGU) du site. Si les algorithmes, contrairement aux modérateurs humains, ont l'avantage de ne pas garder de graves séquelles psychologiques de leur surexposition aux atrocités, ils sont incapables de contextualiser la publication de vidéos. Les robots-modérateurs sont là pour modérer, rien d'autre. Et tant pis si, ce faisant, ils font disparaître de précieuses preuves de crimes de guerre, dont ont tant besoin les ONG et médias d'investigation.  Le 10 septembre, un rapport de Human Rights Watch mettait en lumière ce trou noir de l'information à l'heure de la modération en ligne, appelait à une plus grand transparence des mécanismes de modération des plateformes et proposait la mise en place d'un dispositif d'archivage "qui pourrait être établi en collaboration avec une organisation indépendante, chargée de stocker et de distribuer [ces vidéos] aux acteurs les plus pertinents."  Rien de nouveau, en somme.

Des dizaines de comptes syriens et palestiniens supprimés

Le 19 juin dernier, la Thomson Reuters Foundation relatait les déboires du journaliste Baraa Razzouk qui, après plusieurs années à filmer la vie quotidienne à Idlib, a vu sa chaîne YouTube expurgée d'une dizaine de vidéos, jugées non conformes aux règles de publication par les machines. Quatre jour plus tôt, NBC révélait que début mai, les comptes Facebook (et sa filiale Instagram) de "dizaines" de journalistes et activistes syriens, parmi lesquels  le photographe freelance et collaborateur de l'AFP Abdulaziz Ketaz et le journaliste Mohammed Asakra, avaient été supprimés sans explication. L'ONG Syrian Archive dénombre 35 comptes supprimés. En réaction, une campagne est menée sur Twitter, sous le hashtag  #FBFightsSyrianRevolution ("Facebook contre la révolution syrienne"). La Syrie n'est pas le seul pays touché : pour le seul mois de mai, rapporte le média londonien Middle East Eye, 52 comptes de journalistes palestiniens sont désactivés. Le 4 juin, le Guardian révèle que 60 comptes de l'écosystème médiatique tunisien ont subi le même sort en une seule journée. La plupart seront remis en ligne en quelques jours. D'autres régions du globe, notamment l'Afrique subsaharienne, subissent le même sort, prévient Amnesty International. Dans le vocabulaire Internet, on appelle ça un "strike".

Pour expliquer cette vague de censure inattendue, les plateformes plaident l'erreur technique liée à la méthode d'apprentissage machine (machine learning) de leurs programmes, et mettent en avant le contexte de l'épidémie de Covid-19. Le 18 mars, YouTube prévenait que le confinement des modérateurs allait entraîner une hausse du nombre de contenus supprimés par erreur par les machines, qui ne sont pas censées prendre des décisions de manière autonome en temps normal. L'entreprise rappelle alors qu'il existe un mécanisme d'appel pour les victimes d'une modération abusive. Twitter annonce à peu près la même chose le même jour, en assurant que les comptes ne seront plus suspendus indéfiniment. Le 31 mars, c'était au tour de Facebook d'avertir ses utilisateurs. Pour l'ONG britannique Syrian Archive, interrogée par NBC, l'argument du confinement ne suffit pas à expliquer que "depuis le début de l'année, la part de contenus liés aux droits humains en Syrie supprimée par YouTube a plus ou moins doublé (de 13 à 20%)". En mai, selon le décompte de l'ONG, 350 000 vidéos "d'attaques aériennes, de manifestations et de destruction de maisons" auraient été effacées au nom de la protection de la sensibilité des utilisateurs.

Preuves de l'utilisation de bombes au chlore par El-AssAD 

Au-delà de leur aspect traumatique, ces vidéos jouent un rôle essentiel dans la compréhension du conflit syrien. Faute de reporters sur place, elles permettent aux médias occidentaux d'enquêter sur les attaques et combats en utilisant pour les comprendre et les analyser des outils numériques comme Google Earth, Yandex, Gramify ou SnapMaps   - ce que l'on appelle l'enquête en sources ouvertes ou open source intelligence (OSINT). Dès 2014, plusieurs structures se mettent à trier cette énorme base de données pour produire des rapports, comme Syria Tracker, Airwars et le site d'investigation britannique Bellingcat. L'année suivante, Syrian Archive commence à archiver des vidéos par milliers. En 2017 et 2018, Bellingcat prouve, en reconstruisant des modèles 3D simulés à partir de fragments, que le pouvoir syrien a bien utilisé des bombes-baril au chlore contre la population à Al-Lataminah, Khan Sheikhoun et Douma, alors que Bachar El-Assad jure avoir détruit son arsenal. Les grands médias suivent le mouvement : en 2018, BBC Africa Eye diffuse Anatomy of a killing, une enquête en sources ouvertes,  réalisée via Facebook et Google Earth, qui permet d'identifier les auteurs, la date et le lieu d'un triple meurtre au Cameroun à partir de la vidéo originale postée sur les réseaux sociaux.

Matière première de choix pour une nouvelle génération de journalistes, les vidéos traquées par les plateformes pèsent également dans le processus judiciaire d'attribution de crimes de guerre. Dès 2011, plusieurs ONG les récupèrent pour monter des dossiers; en 2013, l'ONG Witness assure que les vidéos de "journalistes citoyens" peuvent constituer des preuves devant un tribunal, à condition d'être clairement authentifiables (sur YouTube, Witness dispense aujourd'hui des tutoriels pour apprendre aux activistes à filmer). En 2017, après plusieurs échecs, l'International Criminal Court (ICC) émet un premier mandat d'arrêt international contre le commandant libyen Mahmoud al-Werfalli, s'appuyant notamment sur une vidéo publiée sur Facebook qui le montrerait en train d'exécuter 10 prisonniers. Aujourd'hui, l'ICC et les Nations Unies ont chacune des groupes de travail dédiés à la récolte de preuves de crimes de guerre en ligne. En Allemagne, où les tribunaux peuvent s'autosaisir en vertu de la compétence universelle, l'ONG Syrian Archive travaille avec des avocats, particulièrement sur les bombardements chimiques d'al-Lataminah et Douma, explique son fondateur Hadi al-Khatib en 2018.


2017, année de la purge numérique

Si 2017 est une année-charnière dans la reconnaissance du citizen journalism comme outil juridique, elle marque aussi le moment où la modération de contenu change radicalement. En août, le New York Times révèle que le nouveau système de modération de YouTube, qui passe d'un réseau de vérificateurs humains à un processus automatisé, fait disparaître les relais habituels de l'information syrienne. Près de 900 comptes disparaissent, dont ceux des médias Bellingcat, Airwars et Middle East Eye. Le Violation Documentation Center et ses 32 000 vidéos sont tout bonnement effacés.

L'année suivante, Wired tire la sonnette d'alarme sur la purge de "millions de vidéos" en cours. En 2019, rien n'a changé et The Atlantic se penche à son tour sur le sujet. Aujourd'hui, 16% des 1,7 millions de vidéos qui constituent la base de données de Syrian Archive auraient été effacées involontairement, alors que YouTube assure travailler de concert avec l'ONG. Et la technologie de modération est de plus en plus invasive : selon YouTube, 80% des contenus violents publiés au second trimestre 2019 ont été identifiés et supprimés par le système... avant même leur publication! Dans ces conditions, impossible de les sauvegarder ailleurs. "Avant 2017 et ce nouvel algorithme d’identification, ce contenu était vérifié par des individus, qui comprennent le contexte, l’intérêt public. Les ordinateurs ne peuvent pas. Cette information, qui aurait pu être utilisée au tribunal, cesse simplement d’exister. Ils effacent l’Histoire", se désole Nick Waters, journaliste chez Bellingcat, joint par ASI. "Les plateformes s'en fichent, elles détruisent des preuves! Pourquoi ne pas juste les mettre de côté?"

L'enjeu trouve un écho chez @hpiedcoq (qui nous a demandé d'utiliser son alias Twitter plutôt que son nom), d'Open Facto association francophone qui promeut l’investigation en sources ouvertes : "C’est un immense problème. Sur ces zones de guerre, on n’a personne sur place, pas d’yeux. Ce contenu, c’est le seul qui permet de documenter ce qu’il se passe. Il y a un tas d’investigations qui ne peuvent plus se faire parce que le contenu ne tient pas la route, disparaît instantanément. A l’époque c’était plus artisanal, les contenus étaient supprimés après signalement."  

S'il salue le travail effectué par Syrian Archive, il rappelle que l'ONG n'est pas une solution miracle, car elle ne dépend pas de fonds publics et travaille elle aussi à partir de vidéos postées sur les plateformes. "D'une part, la source de Syrian Archive se tarit. D'autre part, [son fonctionnement] est aussi un problème : on a délégué le travail à un prestataire privé. On est en train de privatiser les preuves." Côté solutions, Waters préconise "une politique de modération claire et un recours transparent - que se passe-t-il concrètement, pourquoi, comment on l'évite. Pourquoi une vidéo est supprimée et pas l'autre. Vu que c'est impossible de savoir, les activistes sur place ne peuvent pas changer leurs pratiques." Pour héberger les preuves en ligne, il appelle à "construire une structure totalement différente, car pour le moment c'est vraiment ad hoc. J'espère qu'une ONG parviendra à être reconnue comme institution pour être financée publiquement." Chez Open Facto, on imagine plus prosaïquement une sorte de "zone tampon, réservée aux chercheurs et journalistes", intégrée aux grandes plateformes du Web, où ces vidéos resteraient partiellement disponibles aux yeux avertis.


Aujourd'hui, le débat dépasse le seul cadre des zones de guerre. Ce qui se joue avec la modération agressive des contenus du web, c'est le dilemme entre protection des utilisateurs et défense de la liberté d'accès à l'information. En épouvantails, le Charybde de la censure et le Scylla de la désinformation. "C’est une lame de fond européenne, américaine", affirme @hpiedcoq, "qui contient beaucoup d'enjeux sur la notion de liberté d'expression. Confier à une entreprise privée la possibilité de filtrer du contenu, c'est compliqué." Tellement compliqué que la France, qui se voit aux côtés de l'Allemagne en champion européen de la modération de contenus, a vu sa loi contre les contenus haineux en ligne (dite loi Avia), qui imposait aux plateformes de faire disparaître la pédophilie et le terrorisme des plateformes en 24h, largement retoquée par le Conseil Constitutionnel. Pour le Conseil, la décision ne peut être rendue que par un juge, ce que ne permet pas le "délai d'une heure laissé à l'éditeur ou l'hébergeur pour retirer ou rendre inaccessible le contenu". En réaffirmant la prééminence du magistrat sur la plateforme, le Conseil constitutionnel prend le contrepied des politiques française et européenne, qui visaient jusqu'alors à donner plus d'autonomie (et de responsabilité judiciaire) aux plateformes. Quitte, comme le résumaient Hadi Al Khatib and Dia Kayyali, de l'ONG Witness, au New York Times, à les laisser "effacer l'Histoire" aveuglément.

Partager cet article Commenter

 

Cet article est libre d’accès
En vous abonnant, vous contribuez
à une information sur les médias
indépendante et sans pub.

Déjà abonné.e ?

Lire aussi

Voir aussi

Ne pas manquer

Abonnez-vous

En vous abonnant, vous contribuez à une information sur les médias indépendante et sans pub.