Comment les plateformes technologiques alimentent la polarisation politique américaine et ce que le gouvernement peut faire à ce sujet

Alors que les membres du Congrès et les forces de l’ordre fédérales enquêtent sur les origines et l’exécution de l’insurrection du 6 janvier au Capitole des États-Unis, le rôle joué par les médias sociaux dans le chaos devient un problème crucial.

Le comité spécial de la Chambre enquêtant sur l’attaque de la foule a demandé à un large éventail de sociétés de médias sociaux et de télécommunications de conserver les dossiers liés à plusieurs centaines de personnes, y compris des membres du Congrès, qui pourraient être pertinentes pour l’enquête. Au-delà de ces demandes spécifiques, le Comité a signalé un intérêt plus large pour la manière dont les fausses allégations concernant les élections de 2020 se sont propagées sur des plateformes telles que Facebook et Twitter, y compris la manière dont les algorithmes pourraient contribuer à la promotion de la désinformation et de l’extrémisme. Pendant ce temps, les procureurs fédéraux poursuivant plus de 600 affaires pénales s’appuient sur des preuves recueillies à partir de comptes de médias sociaux utilisés pour organiser la tentative des partisans de Trump d’empêcher le Congrès de certifier la victoire du président Joe Biden.

Un rapport que nous avons récemment publié via le Center for Business and Human Rights de la Stern School of Business de l’Université de New York met en lumière la relation entre les plateformes technologiques et le type de polarisation extrême qui peut conduire à l’érosion des valeurs démocratiques et à la violence partisane. Alors que Facebook, la plus grande plate-forme de médias sociaux, a fait tout son possible pour nier qu’elle contribue à une division extrême, un nombre croissant de recherches en sciences sociales, ainsi que les propres actions de Facebook et les documents divulgués, indiquent qu’une relation importante existe.

Notre conclusion centrale, basée sur un examen de plus de 50 études en sciences sociales et d’entretiens avec plus de 40 universitaires, experts en politiques, activistes et personnes actuelles et anciennes de l’industrie, est que les plateformes comme Facebook, YouTube et Twitter ne sont probablement pas la racine causes de la polarisation politique, mais ils l’exacerbent. Clarifier ce point est important pour deux raisons. Premièrement, les désaveux de Facebook, dans les témoignages du Congrès et d’autres déclarations publiques, ont peut-être obscurci la question dans l’esprit des législateurs et du public. Deuxièmement, alors que le pays essaie simultanément de donner un sens à ce qui s’est passé le 6 janvier et porte son attention sur les élections de 2022, 2024 et au-delà, comprendre le rôle néfaste que les plateformes technologiques populaires peuvent jouer dans la politique américaine devrait être une priorité urgente.

Les médias sociaux contribuent à l’animosité partisane

Mark Zuckerberg de Facebook a à plusieurs reprises rejeté les suggestions selon lesquelles son entreprise attise la division. « Certaines personnes disent que le problème est que les réseaux sociaux nous polarisent, mais ce n’est pas du tout clair d’après les preuves ou les recherches », a-t-il déclaré devant un sous-comité de la Chambre des représentants des États-Unis en mars 2021, soulignant plutôt « un environnement politique et médiatique qui sépare les Américains. Quelques jours plus tard, Nick Clegg, vice-président de Facebook pour les affaires mondiales et la communication, a fait valoir que « les preuves existantes ne soutiennent tout simplement pas l’idée que les médias sociaux, ou les bulles de filtrage qu’ils sont censées créer, sont le moteur sans ambiguïté de la polarisation que de nombreux affirmer. »

Contrairement aux affirmations de Facebook, cependant, une série d’experts ont conclu que l’utilisation des médias sociaux contribue à l’animosité partisane aux États-Unis. Dans un article publié en octobre 2020 dans la revue Science, un groupe de 15 chercheurs a résumé ainsi le consensus scientifique : « Ces dernières années, les sociétés de médias sociaux comme Facebook et Twitter ont joué un rôle influent dans le discours politique, intensifiant le sectarisme politique. » En août 2021, un quintette distinct de chercheurs a résumé leur examen des preuves empiriques dans un article de la revue Trends in Cognitive Sciences : est souvent un facilitateur clé.

La partisanerie est compliquée, mais les plateformes n’échappent pas totalement à la responsabilité

La polarisation est un phénomène compliqué. Une certaine division est naturelle dans une démocratie. Aux États-Unis, les luttes pour la justice sociale et raciale ont conduit à des réactions négatives et à une animosité partisane. Mais la polarisation extrême à laquelle nous assistons aujourd’hui, notamment sur la droite politique, a des conséquences qui menacent de saper la démocratie elle-même. Il s’agit notamment de la baisse de la confiance dans les institutions ; mépris des faits ; dysfonctionnement législatif; érosion des normes démocratiques ; et, dans le pire des cas, la violence dans le monde réel.

Tout cela ne peut pas être attribué à l’essor de la Silicon Valley, bien sûr. La polarisation a commencé à se développer aux États-Unis des décennies avant l’apparition de Facebook, Twitter et YouTube. D’autres facteurs, notamment le réalignement des membres des partis politiques, la montée en puissance des chaînes de radio et de télévision par câble hyper-partisanes et l’augmentation de l’animosité raciale pendant la présidence unique de Donald Trump, ont contribué au problème.

Mais cela n’exonère pas les plateformes technologiques, comme Facebook voudrait nous le faire croire. Une étude publiée en mars 2020 a décrit une expérience dans laquelle des sujets ont cessé d’utiliser Facebook pendant un mois, puis ont été interrogés sur leurs opinions. Rester en dehors de la plate-forme « a considérablement réduit la polarisation des points de vue sur les questions politiques », ont constaté les chercheurs, bien que cela n’ait pas diminué les divisions basées strictement sur l’identité du parti. « Cela est cohérent avec l’idée que les gens voient du contenu politique sur les réseaux sociaux qui a tendance à les rendre plus contrariés, plus en colère contre l’autre côté [and more likely] avoir des points de vue plus forts sur des questions spécifiques », nous a dit Matthew Gentzkow, économiste de Stanford et co-auteur de l’étude, dans une interview.

Facebook et d’autres ont signalé d’autres recherches pour soulever des questions sur la relation entre les médias sociaux et la polarisation. Une étude de 2017 a révélé que de 1996 à 2016, la polarisation a augmenté le plus fortement chez les Américains âgés de 65 ans et plus, le groupe démographique le moins susceptible d’utiliser les médias sociaux. Un article de 2020 a comparé les niveaux de polarisation croissants aux États-Unis sur quatre décennies à ceux de huit autres démocraties développées. Les autres pays ont connu des augmentations plus faibles de la division ou une diminution de la polarisation. Ces variations selon les pays suggèrent qu’à long terme, des facteurs autres que les médias sociaux ont conduit à la polarisation en Amérique

Mais notez que les comparaisons entre les groupes d’âge et entre les pays ont duré des décennies, y compris des périodes prolongées avant l’émergence des médias sociaux. Des clichés plus récents des États-Unis sont donc plus pertinents. Un article publié en mars, basé sur une étude de plus de 17 000 Américains, a révélé que l’algorithme de classement du contenu de Facebook peut limiter l’exposition des utilisateurs aux médias offrant des points de vue contraires aux leurs, et ainsi augmenter la polarisation.

Maximiser l’engagement en ligne conduit à une polarisation accrue

La conception fondamentale des algorithmes de plate-forme aide à expliquer pourquoi ils amplifient le contenu qui divise. « La technologie des médias sociaux utilise des algorithmes basés sur la popularité qui adaptent le contenu pour maximiser l’engagement des utilisateurs », ont écrit les co-auteurs de l’article de Science. Maximiser l’engagement augmente la polarisation, en particulier au sein des réseaux d’utilisateurs partageant les mêmes idées. C’est « en partie à cause du pouvoir contagieux du contenu qui suscite la peur ou l’indignation sectaires », ont déclaré les chercheurs.

Comme nous l’avons écrit dans notre rapport, « les entreprises de médias sociaux ne cherchent pas à stimuler l’engagement des utilisateurs car elles souhaitent intensifier la polarisation. Ils le font parce que le temps que les utilisateurs passent sur une plate-forme à aimer, partager et retweeter est également le temps qu’ils passent à regarder la publicité payante qui rend les principales plates-formes si lucratives.

Facebook est pleinement conscient de la façon dont ses systèmes automatisés favorisent la division. L’entreprise effectue des recherches internes approfondies sur le problème de la polarisation et ajuste périodiquement ses algorithmes pour réduire le flux de contenus susceptibles d’attiser l’extrémisme politique et la haine. Mais généralement, il réduit le niveau de contenu incendiaire pour des périodes de temps limitées. Rendre les ajustements permanents réduirait l’engagement des utilisateurs. Les exemples incluent la période tumultueuse immédiatement après les élections de novembre 2020 et les jours avant le verdict d’avril 2021 dans le procès de Derek Chauvin.

Il est temps que le gouvernement intervienne

Dans une série d’articles d’enquête publiés la même semaine que notre rapport NYU, le Wall Street Journal s’est appuyé sur des documents internes de Facebook pour montrer que les chercheurs de l’entreprise ont identifié à plusieurs reprises les effets néfastes de ses plateformes, mais la haute direction a rejeté les réformes proposées. Dans un épisode, une modification majeure de l’algorithme en 2018 s’est retournée contre lui et, selon les propres études internes de Facebook, a par inadvertance accru la colère et la division sur la plate-forme. Mais Zuckerberg aurait résisté à certains correctifs proposés car il craignait qu’ils ne nuisent à l’engagement des utilisateurs.

De toute évidence, Facebook et ses pairs des médias sociaux doivent aller au-delà du déni et s’attaquer à leur rôle dans l’intensification de la polarisation. L’industrie pourrait commencer par rendre les ajustements algorithmiques de réduction de la température plus permanents que temporaires. Ce faisant, les plateformes technologiques devront continuellement affiner leurs systèmes automatisés et leurs politiques de modération de contenu pour se prémunir contre la suppression de l’expression politique légitime – un défi certes difficile, mais qu’elles se sont lancé en construisant des réseaux aussi vastes et omniprésents. Une autre étape que les sociétés de médias sociaux devraient prendre est de divulguer comment leurs algorithmes désormais secrets classent, recommandent et suppriment le contenu. Avec une plus grande transparence, les législateurs, les régulateurs, les universitaires et le public seraient en meilleure position pour évaluer le fonctionnement des plateformes et exiger des comptes lorsque cela est justifié. Malheureusement, Facebook a récemment pris la direction opposée, coupant dans un cas des chercheurs de l’Université de New York qui étudiaient si la plate-forme avait été utilisée pour semer la méfiance lors des élections. La société a accusé l’équipe de NYU d’avoir collecté des informations de manière inappropriée, une accusation que les chercheurs ont niée.

Il serait préférable que les sociétés de médias sociaux se contrôlent elles-mêmes, mais cela ne se produit pas à un degré suffisant. En conséquence, le gouvernement doit intervenir et assurer la surveillance soutenue qui a fait défaut jusqu’à présent. Dans notre rapport, nous proposons que le Congrès habilite la Federal Trade Commission à rédiger et à appliquer un code de conduite des médias sociaux qui irait au-delà de la transparence et définirait les devoirs des entreprises technologiques lorsqu’elles traitent de contenu haineux, extrémiste ou menaçant.

Par exemple, les normes pourraient établir des références pour diverses catégories de contenu préjudiciable qui restent sur les plateformes même après une modération automatisée et humaine. En cas de dépassement des repères, des amendes pourraient être infligées. Le Congrès pourrait exiger des sociétés de médias sociaux qu’elles intègrent les nouvelles règles dans leurs accords de conditions d’utilisation avec les utilisateurs. Ensuite, si les entreprises ne respectent pas les normes, la FTC pourrait prendre des mesures d’exécution en vertu de son autorité actuelle pour contrôler les pratiques commerciales « déloyales ou trompeuses ». Les représentants Jan Schakowsky (D-Ill.) et Kathy Castor (D-Fla.) ont présenté un projet de loi qui pointe généralement dans la direction que nous recommandons.

L’utilisation généralisée des médias sociaux a alimenté le feu d’une polarisation extrême, qui, à son tour, a contribué à l’érosion de la confiance dans les valeurs démocratiques ; élections; et même des faits scientifiques, tels que la nécessité de la vaccination face à une pandémie mortelle. Ne pas reconnaître et contrer ces développements risque de répéter ce qui s’est passé au Capitole le 6 janvier – ou pire.


Barrett est chercheur principal à la Stern School of Business de l’Université de New York et directeur adjoint de son Center for Business and Human Rights, où Sims est chercheur. Hendrix, chercheur associé et instructeur adjoint à la Tandon School of Engineering de NYU, est le fondateur et rédacteur en chef de Tech Policy Press.

Facebook et Google sont des donateurs généraux et illimités de la Brookings Institution. Les résultats, interprétations et conclusions publiés dans cet article sont uniquement ceux des auteurs et ne sont influencés par aucun don.

Vous pourriez également aimer...