Le sénateur Klobuchar « pousse » les entreprises de médias sociaux à améliorer la modération du contenu

Le nouveau projet de loi bipartisan sur les médias sociaux de la sénatrice Amy Klobuchar, qu’elle a présenté le 9 février en collaboration avec la sénatrice républicaine Cynthia Lummis, est en fait deux projets de loi en un. Il s’agit d’une tentative réfléchie et prometteuse d’élaborer des moyens neutres en termes de contenu pour réduire « la dépendance aux médias sociaux et la diffusion de contenus préjudiciables ». C’est aussi de loin la tentative la plus ambitieuse aux États-Unis d’exiger des rapports de transparence détaillés des grandes entreprises de médias sociaux. En tant que tel, il mérite l’examen attentif des législateurs des deux côtés de l’allée, y compris un examen des questions importantes du premier amendement, suivi d’une action rapide du Congrès.

Coups de pouce et interventions

S. 3608, la  »Nudging Users to Drive Good Experiences on Social Media Act » ou la  »Social Media NUDGE Act », oblige la National Science Foundation et les National Academies of Sciences, Engineering, and Medicine à mener une étude initiale , et des études biennales en cours, pour identifier les «interventions indépendantes du contenu» que les grandes entreprises de médias sociaux pourraient mettre en œuvre «pour réduire les méfaits de l’amplification algorithmique et de la dépendance aux médias sociaux». Après avoir reçu son rapport sur l’étude initiale, attendu un an après la promulgation de la loi, la Federal Trade Commission serait tenue d’entamer une procédure d’élaboration de règles pour déterminer laquelle des interventions recommandées sur les réseaux sociaux devrait être rendue obligatoire.

À quelles interventions pensent les auteurs du projet de loi? Le projet de loi énumère des exemples d’interventions possibles neutres en termes de contenu qui « ne reposent pas sur la substance » du matériel publié, y compris « les alertes de temps d’écran et les paramètres de téléphone en niveaux de gris », les exigences pour les utilisateurs de « lire ou réviser » le contenu des médias sociaux avant de le partager. , et des invites (qui ne sont pas définies plus en détail dans le projet de loi) pour « aider les utilisateurs à identifier les publicités manipulatrices et microciblées ». Le projet de loi évoque également avec approbation des « limites raisonnables à la création de compte et au partage de contenu » qui semblent concerner des techniques coupe-circuit pour limiter l’amplification de contenu.

En outre, le projet de loi entre dans les détails en exigeant que les entreprises de médias sociaux publient des rapports de transparence publics tous les six mois, et en mettant l’accent sur la correction de certaines des faiblesses des rapports de transparence actuels que les critiques ont notés. Par exemple, cela oblige les grandes entreprises de médias sociaux à calculer « le nombre total de vues pour chaque élément de contenu visible publiquement publié au cours du mois et à échantillonner au hasard à partir du contenu ». Cela nécessiterait également des informations sur le contenu publié et consulté qui a été signalé par les utilisateurs, signalé par un système automatisé, supprimé, restauré ou étiqueté, modifié ou modéré. Cet accent mis sur les détails des rapports est un ajout bienvenu à d’autres approches qui restent à un niveau de généralité plus élevé.

Les critiques blâment les algorithmes pour de nombreux maux sur les médias sociaux, et les décideurs du monde entier cherchent à tenir les entreprises de médias sociaux responsables des dommages en ligne qu’elles amplifient de manière algorithmique. Mais personne à ce stade ne sait vraiment comment les algorithmes des médias sociaux affectent la santé mentale, ni les convictions et actions politiques. Plus important encore, personne ne sait vraiment quels changements d’algorithmes amélioreraient les choses.

Les sceptiques d’une solution algorithmique aux maux des médias sociaux se concentrent sur la difficulté de démêler la cause et l’effet du monde des médias sociaux. « Les médias sociaux créent-ils de nouveaux types de personnes ? » a demandé Joseph Bernstein, journaliste principal en technologie de BuzzFeed, dans un article de Harper en 2021, « ou simplement révéler des types de personnes longtemps obscurcis à un segment du public peu habitué à les voir? »

D’autres sceptiques soulignent une véritable faiblesse dans une solution algorithmique aux problèmes de désinformation, de mésinformation et de discours de haine en ligne. « C’est une solution technocratique à un problème qui relève autant de la politique que de la technologie », déclare le chroniqueur du New York Times Ben Smith. Il ajoute : « Les nouveaux populistes de droite alimentés par les réseaux sociaux mentent beaucoup et étirent davantage la vérité. Mais comme l’ont découvert les journalistes américains qui interrogeaient les fans de Donald Trump devant la caméra, son public était souvent au courant de la blague.

Même si la cause et l’effet sont difficiles à discerner dans les médias sociaux, il est indéniable que les algorithmes contribuent au discours de haine et à d’autres troubles de l’information sur les médias sociaux. Le problème n’est pas que les algorithmes n’ont aucun effet et nous imaginons un problème qui n’existe pas. Le problème n’est pas non plus que rien ne fonctionne pour contrer l’effet de la désinformation et des discours de haine en ligne, ou que nous ne sachions rien sur les interventions efficaces. Le problème est que nous n’en savons pas assez pour imposer des solutions algorithmiques ou exiger des interventions techniques ou opérationnelles spécifiques, en particulier celles qui surveillent trop certaines populations.

Jusqu’à ce que l’on en sache beaucoup plus sur l’étendue et les causes des problèmes en ligne et sur l’efficacité des recours, les législateurs ne devraient pas chercher à imposer des techniques spécifiques dans la législation. Il s’agit d’une question d’expérimentation et de preuves, et non d’intuitions sur ce qui est le plus susceptible de fonctionner.

Le projet de loi NUDGE adopte cette approche fondée sur des preuves. Cela nécessite que les agences scientifiques du gouvernement qui s’appuient sur l’expertise de la communauté universitaire prennent l’initiative de générer des recommandations pour les interventions algorithmiques. Pour éviter que l’agence n’improvise toute seule, elle interdit explicitement à l’agence de mandater toute intervention qui n’a pas été abordée dans les rapports des académies nationales.

Quelques améliorations nécessaires

Plusieurs améliorations au projet de loi me semblent importantes. Le premier est de donner aux chercheurs travaillant avec les agences scientifiques nationales un accès complet à toutes les informations dont ils ont besoin pour mener leurs études. Le projet de loi améliore les rapports de transparence publique existants, mais il ne prévoit pas l’accès nécessaire aux données internes des médias sociaux pour les chercheurs approuvés. Ce que les rapports de transparence mandatés par le projet de loi mettent à la disposition du public pourrait ne pas suffire aux chercheurs pour déterminer quelles interventions sont efficaces. Ils devraient bénéficier d’un accès large et obligatoire aux données internes des médias sociaux, y compris des études internes et des données confidentielles sur le fonctionnement de la modération du contenu et des algorithmes de recommandation. Ce n’est qu’avec ces informations qu’ils pourront déterminer empiriquement quelles interventions sont susceptibles d’être efficaces.

Le projet de loi est prudent d’exiger que les organismes scientifiques mènent des études continues sur les interventions. Une deuxième amélioration du projet de loi consisterait à obliger la FTC à mettre à jour ses interventions obligatoires à la lumière de ces études en cours. Le premier ensemble d’interventions obligatoires ne sera presque certainement que modérément efficace, au mieux. On apprendra beaucoup des évaluations de suivi après la mise en pratique de la première série d’interventions. La FTC devrait avoir l’obligation de mettre à jour les règles à la lumière des nouvelles preuves qu’elle reçoit des agences scientifiques.

Le nuage à l’horizon

Aussi prometteur soit-il, il y a un nuage à l’horizon qui menace toute l’entreprise. L’objectif du projet de loi de réduire les contenus préjudiciables est en contradiction avec son mécanisme d’interventions neutres en termes de contenu. Comment les agences scientifiques et l’agence de réglementation peuvent-elles déterminer quelles interventions sont efficaces pour réduire le contenu préjudiciable sans porter de jugement sur le contenu ? Comme l’a noté Daphne Keller, il n’est en fait pas si difficile de ralentir le fonctionnement des systèmes de médias sociaux par l’insertion de disjoncteurs tels que des limites sur le « nombre de fois qu’un élément est affiché aux utilisateurs, ou un taux horaire de augmentation de l’audience. » De telles règles restreindraient tout discours dépassant ces limites : à la fois les dernières nouvelles importantes telles que les vidéos documentant la mort de George Floyd, ainsi que la dernière pièce de désinformation virale COVID.

Mais la préoccupation la plus fondamentale est que les décideurs politiques ne veulent pas de règles neutres dans leur effet. Ils veulent des interventions qui permettent la diffusion rapide de véritables nouvelles de dernière heure et de nouveaux commentaires perspicaces sur des questions d’importance publique tout en empêchant les discours de haine, les contenus terroristes et les contenus préjudiciables à la santé des enfants. Ils veulent, en d’autres termes, des procurations techniques pour les discours nuisibles, et non des interventions qui ralentissent tout vers le bas.

Keller s’inquiète à juste titre de savoir si les règles du disjoncteur neutre « auraient un impact neutre sur le discours de l’utilisateur » car elle estime que le premier amendement pourrait désapprouver les règles qui ont un effet disproportionné sur certains contenus, même si les règles n’évaluent pas le contenu lui-même. Pour cette raison, il est important que la communauté politique s’engage dans une évaluation réfléchie des implications du premier amendement du projet de loi NUDGE. Mon instinct est que, tout comme les tribunaux ont permis à des mandataires neutres en matière de race et de sexe d’obtenir des gains disproportionnés pour les minorités et les femmes dans les affaires d’action positive, les tribunaux autoriseront un recours similaire à des mandataires neutres en matière de contenu pour filtrer les contenus en ligne préjudiciables. Mais les partisans de ce projet de loi doivent réfléchir à la façon de le positionner pour un défi inévitable du premier amendement, même s’ils entament le processus de le faire avancer dans le processus législatif.

Vous pourriez également aimer...