Les entreprises de médias sociaux ont besoin de meilleurs protocoles d’urgence

Le vitriol en ligne, en particulier entre les mains de politiciens et de gouvernements largement suivis, influents et dotés de ressources suffisantes, peut avoir des conséquences graves, voire mortelles. Le 6 janvier 2020, le président Trump a tweeté de fausses allégations de fraude électorale et a apparemment justifié le recours à la violence alors que ses partisans ont pris d’assaut le Capitole américain. Bien qu’un discours en personne ait semblé déclencher le plus directement la violence, la présence de Trump sur les réseaux sociaux a joué un rôle important dans les actions de la foule. Pendant des semaines après avoir perdu les élections de 2020, le président Trump a tweeté de fausses déclarations de fraude électorale et a encouragé ses partisans à descendre à Washington, DC le 6 janvier, à refuser de «prendre plus» et à «être forts». Le jour de l’agression, un tweet selon lequel le vice-président Mike Pence «n’a pas eu le courage de faire ce qui aurait dû être fait» a été suivi par des messages des partisans de Trump sur la plate-forme de réseau social Gab appelant les habitants du Capitole à trouver le vice-président, ainsi que le chant en personne de « Où est Pence? » Avant et pendant l’éclatement de la violence, diverses plateformes de médias sociaux ont aidé la foule à se rassembler au bon endroit et au bon moment, à coordonner ses actions et à recevoir des instructions du président et des autres.

Comme nous l’avons fait valoir dans un article récent de la revue Survival, l’abus des médias sociaux ne se limite pas aux groupes terroristes comme l’État islamique. Les entreprises de médias sociaux devraient également élaborer des protocoles d’urgence pour contrer l’exploitation par des agents malveillants et des États qui cherchent à fomenter la violence.

Un problème mondial

Aussi horrible que soit l’agression contre le Capitole, l’abus des médias sociaux par Trump n’est pas unique. En 2020, dans un contexte de tensions religieuses existantes et d’histoire de violence communautaire, les politiciens du parti indien Bharatiya Janata (BJP) ont publié du contenu incendiaire concernant les musulmans, certains menaçant même la violence des justiciers. Au moins quatre responsables ont conservé leurs comptes Facebook malgré les violations potentielles des règles de la plate-forme en matière de discours de haine, seuls quelques messages ayant été supprimés après que le Wall Street Journal s’en soit renseigné. L’équipe de modération de contenu de Facebook n’a pris aucune mesure sur les allégations des politiciens selon lesquelles des musulmans propagent intentionnellement un coronavirus, et alors que la vidéo de l’ancien législateur du BJP Kapil Mishra menaçant la violence des justiciers a finalement été supprimée, des émeutes et des meurtres affectant de manière disproportionnée les musulmans ont eu lieu peu de temps après sa mise en ligne.

Les acteurs étatiques malveillants utilisent depuis longtemps la technologie des communications pour atteindre des objectifs violents ou haineux. Par exemple, pendant le génocide rwandais, des extrémistes hutus ont armé les émissions de la Radio Télévision Libre des Mille Collines pour attiser la haine contre les Tutsis et les Hutus modérés, et pour énumérer les noms, adresses et même numéros de plaque d’immatriculation de ceux qu’ils voulaient tuer. Aujourd’hui, les dirigeants d’État peuvent utiliser les plateformes de médias sociaux de différentes manières, allant des appels explicites à la violence aux contenus qui encouragent insidieusement la haine, pour exacerber de la même manière les tensions et inciter à la violence.

Nouveaux risques et opportunités pour les entreprises

Bien que l’exploitation des technologies de la communication par les États ne soit pas nouvelle, les médias sociaux présentent de nouveaux dangers et risques. Compte tenu de la portée des plates-formes, les États peuvent avoir un impact énorme sur leurs populations s’ils dominent le discours sur les plates-formes populaires comme Facebook et Twitter. De plus, les médias sociaux facilitent les «chambres d’écho», où les flux sont personnalisés en fonction des données des utilisateurs et les vues préexistantes des utilisateurs sont renforcées (peut-être au point d’inciter à l’action) plutôt que contestées. Enfin, la plupart des plateformes de médias sociaux n’ont pas de gardiens et n’ont pas le rôle éditorial des journaux ou des émissions de télévision, bien qu’elles aient généralement des normes communautaires minimales. Il y a généralement peu de responsabilité, et un petit nombre d’individus ou de fermes de trolls engagées par l’État peuvent amplifier un certain message et faire apparaître des opinions marginales plus courantes. Des politiciens largement suivis comme le président Trump eux-mêmes peuvent communiquer directement avec d’énormes pans de la population. Avec une exposition répétée à une rumeur renforçant sa crédibilité et sa probabilité d’être rappelée, les rumeurs sur les réseaux sociaux deviennent extrêmement puissantes.

Dans le même temps, le manque de gardiens et la domination de l’environnement de l’information offre une nouvelle opportunité. Les médias sociaux peuvent offrir des alternatives à un discours haineux contrôlé par le gouvernement sur les médias traditionnels, connecter les communautés en situation de crise et fournir des informations aux membres de la société civile, aux gouvernements étrangers et aux autres acteurs concernés. Par conséquent, les entreprises de médias sociaux doivent reconnaître leur pouvoir unique en ce qui concerne les États et prendre des mesures contre les violences potentielles.

Enfiler l’aiguille

Bien qu’elles soient encore imparfaites, les entreprises de médias sociaux ont fait des progrès pour lutter contre les activités en ligne néfastes des djihadistes et d’autres groupes sous-étatiques violents. En ce qui concerne la modération du contenu de l’État, cependant, les entreprises de médias sociaux sont aux prises avec des questions plus épineuses sur la façon de maintenir leurs résultats, d’appliquer avec précision les outils technologiques et de suivre leurs idéaux de liberté d’expression affirmés tout en croisant ces puissants acteurs. Dans le cas des responsables de Trump et du BJP, ils sont également élus démocratiquement, ce qui leur donne une légitimité et soulève la question de savoir si les normes des entreprises de médias sociaux sont plus importantes que les élections pour déterminer qui a le droit à un accès privilégié à ces plates-formes importantes.

Différents mastodontes des médias sociaux ont équilibré ces motivations et préoccupations variées de différentes manières. Twitter et Facebook, par exemple, ont réagi différemment à l’incitation à la violence de Trump le 6 janvier ainsi qu’à la rhétorique anti-musulmane des politiciens du BJP. Ces différentes politiques suggèrent la difficulté de répondre à la question sous-jacente: comment les entreprises de médias sociaux peuvent-elles et devraient-elles traiter les politiciens et les gouvernements qui fomentent la haine en ligne?

Bien que Facebook et d’autres entreprises aient consacré des ressources importantes au problème du mauvais contenu, les outils techniques et les modérateurs humains disponibles ne parviennent souvent pas à résoudre le problème. Les humains sont nécessaires pour former et affiner les outils technologiques, gérer les appels et traiter les contenus nuancés nécessitant une compréhension du contexte social, culturel et politique. Par exemple, la hausse de l’utilisation de la modération automatisée du contenu pendant la pandémie COVID-19 a entraîné la suppression d’informations essentielles – telles que les publications Facebook du journaliste syrien Mohammed Asakra documentant l’injustice dans le pays et partageant cela avec d’autres militants -. Même au Myanmar, qui a été un point focal après les meurtres de masse orchestrés par les médias sociaux en 2018, les modérateurs de contenu humain ne peuvent souvent pas vivre dans le pays lui-même et sont accablés par plusieurs pays sur leurs profils.

Au-delà de ces limitations de ressources, défier ou agir contre les gouvernements peut nuire aux intérêts commerciaux des entreprises de médias sociaux. Pour accéder aux marchés clés, les entreprises de médias sociaux comptent sur l’approbation du gouvernement, les licences et un environnement réglementaire favorable. Les entreprises de médias sociaux peuvent donc être plus disposées à se plier à la volonté d’un gouvernement et à éviter les réactions négatives.

Face à ces difficultés, une solution «plus simple» peut consister à adopter une approche plus brutale de la modération des contenus, rendant certains contenus inaccessibles ou limitant largement l’accès aux plateformes. Cependant, une restriction excessive peut avoir des conséquences tout aussi dévastatrices. Les régimes répressifs coupent souvent Internet au nom de la sécurité tout en utilisant le silence pour nuire aux dissidents ou aux communautés minoritaires. En outre, limiter tout contenu, en particulier le contenu gouvernemental, peut être en contradiction avec les principes supposés des entreprises technologiques basées aux États-Unis. De nombreuses entreprises affirment être attachées à la liberté d’expression pour tous leurs utilisateurs et ne se considèrent pas comme des arbitres de contenus appropriés ou inappropriés. Faire ces jugements place les entreprises de médias sociaux dans un rôle dans lequel elles ne devraient pas ou ne veulent pas jouer. Pourtant, avec le pouvoir que ces plates-formes rapportent, les entreprises de médias sociaux doivent trouver des moyens de se préparer à ce rôle et d’empêcher l’escalade des tensions en cas de crise.

Pour équilibrer différents engagements et apporter une réponse appropriée à la haine soutenue par l’État en ligne, les entreprises de médias sociaux doivent être en mesure d’évaluer différentes situations et de mettre en œuvre des protocoles d’urgence si nécessaire. La rhétorique haineuse et le contenu limite deviennent plus dangereux lorsque les tensions dans une société sont déjà élevées. Les entreprises peuvent utiliser les indicateurs des universitaires et des institutions pour reconnaître qu’une urgence peut être proche. En interne, une augmentation du contenu dangereux détecté par des systèmes d’intelligence artificielle ou des analystes humains peut déclencher une surveillance accrue. De plus, les entreprises doivent reconnaître la fin d’une urgence pour s’assurer que les limitations des médias sociaux ne posent pas de fardeau excessif. Des victoires temporaires, comme un certain nombre de jours sans violence, ou l’annonce d’événements plus importants, comme les négociations de paix ou le retour des réfugiés, pourraient indiquer la fin de la crise. Une fois déterminées, les entreprises doivent décider des mesures à prendre pendant ces périodes d’urgence.

Les entreprises disposent d’une pléthore d’outils pour limiter la diffusion de contenus dangereux en cas de crise. Les plates-formes peuvent appliquer des étiquettes d’avertissement sur les publications controversées pour amener les utilisateurs à remettre immédiatement en question le contenu et à rechercher des informations supplémentaires. Twitter a utilisé une telle étiquette concernant le tweet de Trump «lorsque le pillage commence, la fusillade commence» lors des manifestations de 2020 Black Lives Matter. Les entreprises de médias sociaux peuvent également intensifier les efforts existants pour limiter la visibilité des contenus dangereux en situation de crise. Déjà, Facebook rétrograde les publications identifiées comme fausses, YouTube et Facebook appliquent des directives plus strictes pour décider de recommander ou non du contenu, et Twitter prétend supprimer les sujets tendance s’ils le sont. trompeur ou perturbant la conversation publique. Les messages douteux sont parfois mis dans un «état limité» avec des commentaires, des mentions J’aime, le partage, le transfert et la monétisation par le biais d’annonces désactivées ou limitées. Ces efforts devraient être accrus en temps de crise et étendus pour s’appliquer temporairement à un contenu plus limite. Au plus fort d’une crise, les entreprises pourraient même appliquer cette règle d’état limité aux publications contenant certains mots clés.

En outre, davantage de ressources devraient être consacrées à la suppression du contenu limite de la plateforme et à la suspension des comptes dangereux pendant les situations de crise. Twitter et Facebook, qui avaient longtemps souscrit à l’idée de maintenir le contenu des personnalités publiques au nom de l’intérêt public, s’est rendu compte du danger de maintenir ce contenu alors que les manifestations du 6 janvier à Washington, DC, débordaient. Twitter a d’abord étiqueté les tweets incendiaires de Trump avec des avertissements, puis a temporairement verrouillé le président de son compte avant de le suspendre définitivement. Facebook, quant à lui, a suspendu le compte de Trump «au moins» jusqu’à l’investiture du président élu Joe Biden. Reconnaissant apparemment que le retrait des auteurs à la source peut en fin de compte protéger la sécurité publique, les entreprises de médias sociaux ont abaissé les dispositions précédentes concernant la suspension des comptes et la suppression des publications pour les comptes bénéficiant d’un traitement préférentiel. L’abaissement de ces seuils pour les comptes «ordinaires» faisant passer des rumeurs lors d’une crise peut également ralentir la diffusion de la rhétorique incitative.

Dans le même temps, les médias sociaux peuvent également fournir les informations nécessaires à partir des avant-postes apolitiques du gouvernement, de la société civile, des premiers intervenants et des proches. Le contenu positif doit donc être mis en évidence. Grâce à des partenariats avec des organisations locales de la société civile et des organisations internationales réputées, des sources fiables devraient être identifiées et mises en valeur dans les fils d’actualité. Les entreprises peuvent suivre le modèle de YouTube en créant un onglet «actualités» ou «actualités de dernière minute» en haut des pages d’accueil, ce qui rend la collection de ces sources facilement accessible. Dans certaines situations, les entreprises pourraient même mettre certaines sources sur liste blanche et autoriser l’accès à ces sources pré-approuvées tout en empêchant l’accès à d’autres.

La limitation du contenu sur les réseaux sociaux, en particulier le contenu de l’État, comporte des risques pour les victimes d’une crise ainsi que pour les entreprises elles-mêmes. La vigueur et la durée des mesures prises doivent être soigneusement évaluées lors de la modification des performances et des objectifs d’une plateforme. Pourtant, les risques d’inaction sont plus grands. Bien que les mesures présentées ici ne puissent pas résoudre les fissures sous-jacentes dans les sociétés, elles peuvent réduire le puissant impact de l’exploitation des médias sociaux pour répandre la haine et la violence.

Vous pourriez également aimer...