Briser le marché de la désinformation

La propagation de la désinformation en ligne a été reconnue comme un problème social croissant. En réponse à ce problème, les plateformes de médias sociaux ont (i) promu les services de vérificateurs de faits tiers ; (ii) supprimé les producteurs de fausses informations et déclassé les faux contenus ; et (iii) fourni des informations contextuelles pour le contenu signalé, permettant aux utilisateurs de déterminer eux-mêmes la véracité des informations. Dans un récent rapport du personnel, nous développons un modèle flexible de désinformation pour évaluer l’efficacité de ces types d’interventions. Notre analyse se concentre sur la mesure dans laquelle ces mesures incitent les utilisateurs à vérifier les informations qu’ils rencontrent en ligne.

Un cadre «offre et demande»

Notre modèle met en scène deux types d’acteurs : les utilisateurs qui regardent l’actualité et les producteurs qui génèrent l’actualité. Les utilisateurs bénéficient du partage d’informations véridiques mais subissent des pertes en partageant des informations erronées ; il s’agit d’un choix de modélisation qui réduit intentionnellement les risques de transmission de faux contenus.

Lorsqu’il rencontre une actualité, un utilisateur peut choisir de déterminer sa véracité au prix (de temps et d’efforts, par exemple) avant de décider de la partager ou non. La décision de poursuivre la vérification implique donc de mettre en balance le coût de la certitude (en consultant un article de fact-checking, par exemple) et le risque de partage d’informations erronées. La probabilité de ce dernier est déterminée par la prévalence de désinformation sur une plate-forme donnée, qui est déterminée par les forces de l’offre et de la demande. Plus précisément, les producteurs de faux contenus bénéficient lorsque les utilisateurs partagent ces informations sans d’abord prendre la peine de les vérifier. À mesure que la fraction de ces utilisateurs augmente, la transmission de la désinformation augmente également, ce qui incite à la production (et donc à la prévalence) de faux contenus, ce qui entraîne une « courbe d’offre » de désinformation en pente ascendante. À l’inverse, les utilisateurs sont moins susceptibles de transmettre des informations non vérifiées lorsque le risque de tomber sur de faux contenus est plus élevé. À mesure que la prévalence de la désinformation augmente, de moins en moins d’utilisateurs s’engagent dans un tel partage non vérifié, ce qui entraîne une « courbe de transmission de la désinformation » descendante. Tout comme un cadre offre-demande standard, la prévalence et la transmission de la désinformation à l’équilibre émergent au point d’intersection des deux courbes, comme le montre le graphique ci-dessous.

Prévalence d’équilibre et transmission de la désinformation sur une plateforme de médias sociaux

Source : Cisternas et Vásquez (2022).

Examiner les incitations des utilisateurs

Notre cadre nous permet d’évaluer les efforts que les plateformes ont entrepris pour contrer la désinformation. En particulier, nous nous concentrons sur la manière dont ces mesures pourraient affecter les incitations des utilisateurs à vérifier les informations qu’ils voient en ligne.

1. L’étendue du partage non vérifié peut être insensible aux réductions des coûts de vérification. S’il devenait moins coûteux pour les utilisateurs de déterminer la véracité d’une information donnée, on s’attendrait à un déplacement vers l’intérieur de la courbe de transmission de la désinformation, assurant une baisse à la fois de la prévalence et de la transmission. Comme nous le montrons dans notre article, cependant, pour toute diminution des coûts de vérification, il existe toujours des niveaux de prévalence auxquels le comportement de partage non vérifié est insensible à de tels changements. Le graphique suivant montre un exemple de courbe de transmission de la désinformation qui ne se déplace vers l’intérieur que dans deux régions de prévalence déconnectées, laissant l’équilibre inchangé

La courbe de transmission de la désinformation n’a pas besoin de se déplacer vers l’intérieur partout après une réduction des coûts de vérification

Source : Cisternas et Vásquez (2022).

À partir de cet exemple, nous pouvons voir qu’il n’y a pas de changement vers l’intérieur pour les faibles niveaux de prévalence – c’est naturel, car le risque de partager des informations erronées est faible dans ces cas. Ce qui est intéressant, c’est qu’il n’y a pas non plus de changement aux niveaux de prévalence intermédiaires et élevés, où le risque de partager du faux contenu n’est pas faible. En effet, comme nous le montrons dans le modèle, il est possible qu’autour de ces niveaux, une réduction des coûts de vérification ait l’effet « involontaire » d’induire une vérification par des utilisateurs qui ne partageaient pas de contenu à l’origine, mais pas par ceux qui partageaient déjà des informations non vérifiées. . En d’autres termes, une telle politique induit l' »entrée » d’utilisateurs qui trouvaient à l’origine qu’il était trop risqué de partager alors que la vérification était extrêmement coûteuse pour eux, mais comme leurs décisions de partage sont motivées uniquement par la possibilité de vérifier les informations, la transmission de la désinformation est inchangé.

Il est important de noter que nos recherches révèlent que l’emplacement de ces régions «insensibles» dépend de manière critique de la manière dont les avantages et les pertes associés à la désinformation varient au sein de la population. L’examen de ces distributions est alors une question empirique clé pour évaluer si les initiatives de vérification des faits – qui réduisent les coûts supportés par les utilisateurs lors de la recherche d’informations pour valider les nouvelles – peuvent être efficaces pour lutter contre la désinformation.

2. Les interventions d’approvisionnement peuvent accroître la diffusion de la désinformation. Diverses politiques actuellement en place tentent de réduire la rentabilité du trafic de fausses informations, réduisant ainsi son offre (et sa prévalence). Cependant, la transmission de faux contenus augmente car les incitations à la vérification des utilisateurs sont affaiblies dans le processus, car les informations deviennent plus susceptibles d’être véridiques. Le taux de diffusion de la désinformation (prévalence multipliée par la transmission) saisit la possibilité que la désinformation soit partagée entre les utilisateurs. Le graphique suivant représente une courbe de transmission de la désinformation qui présente une vérification par les utilisateurs (remarquez une baisse plus prononcée – due à un déplacement vers l’intérieur – aux niveaux de prévalence à partir de 0,2), mais où l’étendue de la diffusion (zones B plus C) augmente après le l’offre de désinformation est réduite : en particulier, la diminution de la diffusion due à une prévalence plus faible (zone A) est plus faible que son augmentation due à un taux de transmission plus élevé (zone C).

Une réduction de l’offre de fausses informations entraîne une plus grande diffusion lorsque la vérification est en jeu

Source : Cisternas et Vásquez (2022).

Il est important de noter que notre analyse identifie les conditions dans lesquelles la courbe de transmission est suffisamment « réactive » à ces changements d’offre pour que le taux de diffusion augmente après l’intervention ; et il examine également quand une réduction des coûts de vérification génère une courbe de transmission plus réactive, fournissant ainsi des conditions dans lesquelles politiques communes peuvent se renforcer négativement.

3. Les algorithmes de détection qui suppriment les nouvelles pour les utilisateurs peuvent se retourner contre eux. Nous évaluons également l’efficacité des filtres internes qui évaluent la véracité des articles de presse, en supprimant ceux qui sont considérés comme faux avant qu’ils n’atteignent les utilisateurs. Dans ce contexte, nous montrons que l’introduction de filtres imparfaits peut en fait augmenter la prévalence et la diffusion de la désinformation malgré la couche de protection supplémentaire fournie par ces algorithmes. Prenons le cas d’un filtre qui fait des erreurs de « faux négatifs » (décidant à tort qu’une fausse nouvelle est vraie) : après qu’un article d’actualité est passé à travers le filtre, un utilisateur devient plus sûr de sa véracité et moins enclin à vérifier son contenu. , augmentant ainsi le partage non vérifié. Cet effet peut l’emporter sur la réduction de la production de fausses informations qui découle du fait que les producteurs perçoivent correctement cette couche de protection supplémentaire comme limitant la transmission de faux contenus – voir le graphique suivant, où la diffusion de fausses nouvelles ne commence à baisser qu’une fois que le filtre en place est suffisamment efficace .

La diffusion de fausses informations peut augmenter lorsque la qualité du filtre – la probabilité de détecter de fausses nouvelles – s’améliore

Source : Cisternas et Vásquez (2022).

Enfin, alors que notre modèle de base est « concurrentiel » en ce qu’il examine un marché avec de nombreux petits producteurs de désinformation, nous étudions également le cas d’un seul producteur de faux contenus. Dans un tel marché, nous montrons que l’exercice traditionnel du pouvoir monopolistique consistant à réduire le « commerce » – ici, la prévalence – pour obtenir un taux de transmission plus important est entravé par le fait que la prévalence de la désinformation n’est généralement pas directement observée par les utilisateurs. Ainsi, la divulgation du niveau de prévalence aux utilisateurs pourrait favoriser un producteur de désinformation monopolistique en lui permettant de se déplacer le long de la courbe de transmission pour cibler un taux de transmission plus élevé.

Dans l’ensemble, notre recherche souligne que l’analyse conjointe des incitations des utilisateurs et des producteurs est essentielle pour la conception d’interventions politiques dans les médias sociaux. Dans le processus, nous avons identifié certains types de données qui doivent être recueillies afin d’évaluer l’efficacité des interventions politiques : comment les avantages et les pertes des utilisateurs du partage des informations sont répartis entre les populations d’intérêt ; la sensibilité des incitations à la vérification aux changements de prévalence ; et dans quelle mesure les filtres internes et les choix de vérification des individus sont substituables à différents niveaux de qualité de filtre.

Photo: portrait de Gonzalo Cisternas

Gonzalo Cisternas est conseiller en recherche financière pour les études sur les institutions financières non bancaires au sein du groupe de recherche et de statistiques de la Federal Reserve Bank de New York.

Jorge Vásquez est professeur adjoint d’économie au Smith College.

Comment citer cet article :
Gonzalo Cisternas et Jorge Vásquez, « Breaking Down the Market for Misinformation », Federal Reserve Bank of New York Économie de Liberty Street28 novembre 2022, https://libertystreeteconomics.newyorkfed.org/2022/11/breaking-down-the-market-for-misinformation/.


Clause de non-responsabilité
Les opinions exprimées dans cet article sont celles des auteurs et ne reflètent pas nécessairement la position de la Federal Reserve Bank de New York ou du Federal Reserve System. Toute erreur ou omission relève de la responsabilité des auteurs.

Vous pourriez également aimer...