Twitter, l’UE et l’autorégulation de la désinformation

Plus tôt ce mois-ci, le ministre allemand du numérique et des transports, Volker Wissing, a rencontré le PDG de Twitter, Elon Musk, pour discuter de la désinformation. Comme rapporté dans Ars Technica, à la suite de la réunion, un porte-parole du ministère a déclaré que « le ministre fédéral Wissing l’a clairement indiqué. . . que l’Allemagne s’attend à ce que les engagements volontaires existants contre la désinformation et les règles de la loi sur les services numériques soient respectés à l’avenir.

Twitter est l’un des plusieurs dizaines de signataires du « 2022 Strengthened Code of Practice on Disinformation » de l’Union européenne (UE), un cadre d’autorégulation pour lutter contre la désinformation. À la lumière des réductions massives d’effectifs chez Twitter ces derniers mois, il est clair que les gouvernements de l’UE s’inquiètent de savoir si Twitter sera en mesure de respecter les engagements pris avant son acquisition par Elon Musk.

Le code de désinformation 2022 contient une série de 44 « engagements », dont certains sont subdivisés en « mesures ». Lorsqu’une entreprise devient signataire, elle remet un document de souscription identifiant à quels Engagements (et plus précisément à quelles Mesures) elle souscrit. Le document d’abonnement de Twitter de juin 2022 indique que Twitter s’est engagé, entre autres, à : « définancer la diffusion de la désinformation et de la mésinformation », « empêcher l’utilisation abusive des systèmes publicitaires pour diffuser la désinformation ou la désinformation » et « mettre en place ou renforcer davantage des politiques pour lutter à la fois contre la mésinformation et la désinformation.

Compte tenu de toutes les récentes réductions de personnel et des changements de direction chez Twitter, il n’est pas surprenant qu’il soit sous les projecteurs en matière de désinformation. Mais tous les signataires – une liste qui comprend non seulement Twitter mais aussi Google, Meta, Microsoft et TikTok – sont confrontés à des défis potentiels pour respecter leurs engagements en vertu du Code de désinformation 2022.

Une difficulté clé du respect du Code de désinformation 2022 réside dans la détermination de ce qui est et n’est pas de la mésinformation et de la désinformation. Le code de désinformation de 2022 utilise les définitions du plan d’action européen pour la démocratie (EDAP), qui définit la désinformation comme « un contenu faux ou trompeur partagé sans intention nuisible, bien que les effets puissent toujours être nuisibles, par exemple lorsque des personnes partagent de bonne foi de fausses informations avec leurs amis et leur famille. .” La désinformation est définie dans l’EDAP comme « un contenu faux ou trompeur qui est diffusé dans l’intention de tromper ou d’obtenir un gain économique ou politique et qui peut causer un préjudice public ».

Ces définitions semblent assez simples. Et, aux extrêmes, ils sont faciles à appliquer. Les publications sur les réseaux sociaux qui tentent de vendre de faux remèdes contre le cancer sont facilement identifiables comme problématiques. Mais considérez ceci maintenant supprimé tweeter posté en février 2020 par le Surgeon General des États-Unis de l’époque : « Sérieusement les gens – ARRÊTEZ D’ACHETER DES MASQUES ! Ils ne sont PAS efficaces pour empêcher le grand public d’attraper le #Coronavirus, mais si les prestataires de soins de santé ne peuvent pas les amener à soigner les patients malades, cela les met eux et nos communautés en danger ! »

Envoyé au début de la pandémie, ce tweet mélange des informations incorrectes (l’affirmation selon laquelle les masques ne sont pas efficaces pour réduire la transmission du COVID-19 parmi le grand public) avec des informations correctes (l’affirmation qu’une pénurie de masques pour les prestataires de soins de santé crée des risques pour eux et pour les autres). Avec le recul, il est facile de faire valoir que ce tweet aurait dû être rapidement soumis à une sorte de modération de contenu, comme une étiquette indiquant qu’il contenait des informations inexactes concernant l’utilité des masques. Mais février 2020 a été une période de grande incertitude concernant le COVID-19, et les entreprises de médias sociaux sous pression pour identifier rapidement la désinformation n’ont pas le luxe d’attendre que cette incertitude se résolve.

Pour prendre un autre exemple, considérons un tweet hypothétique envoyé par un candidat politique le soir d’un jour d’élection alléguant une fraude électorale dans une juridiction particulière. Avec le temps, l’exactitude de cette allégation peut être étudiée. Mais dans l’immédiat, c’est-à-dire le moment même où le tweet peut faire le plus de dégâts s’il est faux, il n’y a pas encore assez d’informations pour savoir que c’est faux.

Le paradoxe de la désinformation est qu’elle peut être nocive à court terme pendant laquelle il n’est pas encore possible de l’étiqueter en toute confiance comme de la désinformation. Ce n’est pas un paradoxe que les entreprises de médias sociaux peuvent résoudre grâce à une IA intelligente, ou que les gouvernements peuvent résoudre par la réglementation.

Le Code de désinformation 2022 est un cadre d’autorégulation qui s’applique uniquement aux entreprises qui se portent volontaires pour être signataires. Dans le même ordre d’idées et plus généralement, les entreprises qui fournissent des «services intermédiaires» – y compris les sociétés de médias sociaux et les moteurs de recherche – aux citoyens de l’UE sont tenues de se conformer à la loi sur les services numériques (DSA) de l’UE, un cadre réglementaire qui, entre autres, a des exigences étendues concernant l’identification et le traitement du « contenu illégal ».

L’AVD est entrée en vigueur en novembre 2022 et devient pleinement applicable début 2024 pour toutes les entreprises sauf les plus grandes. Les « très grandes plates-formes en ligne » (VLOP) et les « très grands moteurs de recherche en ligne » (VLOSE) sont confrontés à un calendrier accéléré, la conformité DSA étant requise quatre mois après que l’UE a rendu une désignation VLOP ou VLOSE. Cette désignation interviendra probablement au cours du premier semestre 2023 et s’appliquera aux plateformes en ligne ayant « un nombre moyen de destinataires actifs mensuels du service dans l’Union égal ou supérieur à 45 millions » (par exemple, des entreprises telles qu’Alphabet, Apple , et Méta). Il y a aussi une question intéressante à savoir si la Commission européenne désignera Twitter comme VLOP. Communications récentes de la Commission ont laissé entendre que cette désignation pourrait être prochaine, bien que la Commission n’ait pas encore officiellement pris cette décision.

Le résultat est que 2023 promet d’être une année très active en termes d’engagement entre les entreprises de médias sociaux et l’UE. En 2023, la position ferme de l’UE contre la désinformation devra être conciliée avec l’incertitude inhérente qui peut survenir lors de la vérification rapide de l’exactitude des publications sur les réseaux sociaux. Quelle que soit la qualité de la vérification, il y aura toujours des faux négatifs et des faux positifs.

Cela signifie à son tour qu’il y aura un certain degré de subjectivité dans l’évaluation du respect par une entreprise de médias sociaux de ses obligations et/ou de ses engagements en matière de lutte contre la désinformation. En bref, le véritable test des cadres réglementaires de la désinformation résidera dans leur application, et non dans leur promulgation.

Google, Meta et Microsoft sont des donateurs généraux sans restriction de la Brookings Institution. Les découvertes, interprétations et conclusions publiées dans cet article sont uniquement celles des auteurs et ne sont influencées par aucun don.

Vous pourriez également aimer...