Code de bonnes pratiques de l’UE sur la désinformation

En 2018, la Commission européenne (CE) a créé le Code de bonnes pratiques de l’UE sur la désinformation (Code), le premier texte législatif d’autorégulation visant à motiver les entreprises à collaborer pour trouver des solutions au problème de la désinformation. Vingt et une entreprises ont accepté de s’engager envers ce Code, et ces règles ont abouti à des solutions concrètes : Facebook, Google et Twitter ont développé des bibliothèques d’annonces pour répertorier les annonceurs politiques, Twitter publié ses données de retrait, et plusieurs entreprises ont élargi leurs outils de vérification des faits et leurs étiquettes de désinformation et créé des programmes éducatifs de journalisme et d’éducation aux médias. Cependant, le Code initial a fait l’objet de critiques, principalement parce que les entreprises n’étaient pas tenues de déclarer des résultats quantitatifs, ce qui rendait difficile la mesure de l’impact de la nouvelle gouvernance.

En raison de ces plaintes, un groupe de trente-quatre parties prenantes, comprenant des entreprises, des associations professionnelles, des associations industrielles et des organisations internationales, a révisé le code EC original. Le 16 juin 2022, la Commission a publié le code modifié et renforcé, dans lequel toutes les entreprises opérant dans l’UE ont eu la possibilité de signer. Ce Code actualisé comporte 44 engagements et comprend 128 mesures spécifiques, par rapport aux 21 engagements du Code initial. Les signataires auront six mois pour remplir les engagements et les mesures, et sept mois pour fournir des rapports de base à la CE, de sorte que la mise en œuvre commencera au début de 2023. À l’heure actuelle, on ne sait pas non plus combien et quelles entreprises se pencheront vers la conformité avec les modifications proposées au Code, qui sont expliquées dans la section suivante.

Démonétisation de la désinformation

Le Code 2018 s’est engagé à « déployer des politiques et des processus pour perturber les incitations à la publicité et à la monétisation pour les comportements pertinents, tels que la fausse représentation d’informations matérielles sur soi-même ou sur le but de ses propriétés ». Cependant, il s’agissait d’une définition large de la désinformation et n’exigeait pas des signataires qu’ils s’engagent à prendre des mesures spécifiques pour atteindre cet objectif, suggérant plutôt que les entreprises « peuvent, le cas échéant » mettre en œuvre l’une des politiques suggérées telles que des outils de vérification de marque et/ou engagement avec des sociétés de vérification tierces.

Dans la version révisée, ces politiques sont recadrées comme des engagements spécifiques que les entreprises doivent indiquer si elles ont signé ou fournir une raison si elles choisissent de ne pas le faire. Au lieu de simplement perturber les fausses informations, le Code 2022 vise à « financer la diffusion de la désinformation », qui est définie comme « la désinformation, la désinformation, les opérations d’influence de l’information et l’ingérence étrangère dans l’espace de l’information ». L’utilisation de termes plus clairs et standardisés, comme la désinformation, aide à mieux communiquer les objectifs de ce Code. De plus, dans le code précédent, les entreprises étaient chargées de fournir aux clients des mécanismes pour surveiller leur placement publicitaire. Dans le Code mis à jour, les entreprises signataires sont désormais également chargées de vérifier l’emplacement des publicités et d’éviter leur placement à côté de la désinformation (Mesure 1.1).

Certaines des autres nouvelles mesures spécifiques comprennent:

  • Créer des critères d’éligibilité et des mécanismes d’examen du contenu plus stricts pour les programmes de monétisation du contenu et de partage des revenus publicitaires (Mesure 1.2) ;
  • Placer des publicités par l’intermédiaire de vendeurs de publicités qui ont pris des mesures éprouvées pour éloigner la publicité du contenu de désinformation (Mesure 1.4) ;
  • Donner aux auditeurs indépendants un accès équitable à leurs services et données (Mesure 1.5) ; et
  • Identifier les contenus et les sources comme diffusant de la désinformation préjudiciable (Mesure 2.2).

Transparence accrue de la publicité politique

Cette section est largement développée à partir des trois engagements du Code original. L’un des trois n’a toujours pas été résolu : parvenir à une définition commune de la « publicité politique et thématique ».” Cependant, si une définition politique n’a pas été adoptée dans l’année suivant l’entrée en vigueur du Code, il stipule que le groupe de travail devra se réunir et s’entendre sur une définition. Principalement, ces engagements élargissent les attentes en matière de transparence pour les publicités politiques et thématiques. Alors qu’en 2018, les entreprises se sont engagées à divulguer publiquement la publicité politique, en 2022, les entreprises doivent développer des étiquettes claires sur les publicités politiques et thématiques qui restent lorsque les utilisateurs partagent des publicités (Engagement 6 ; Mesures 6.1-6.5). Le Code charge également les entreprises d’identifier les sponsors avant le placement d’annonces (Mesure 7.1) et de supprimer les sponsors qui ne respectent pas les exigences en matière de publicité politique et thématique (Mesure 7.3).

Notamment, la mise à jour proposée pourrait aider les chercheurs qui étudient la publicité politique ou les utilisateurs qui souhaitent en savoir plus sur les raisons pour lesquelles les algorithmes sélectionnent certaines publicités pour les diffuser. Les entreprises doivent créer un référentiel publicitaire avec des enregistrements en temps quasi réel de toutes les publicités politiques et thématiques diffusées, archiver les publicités pendant au moins cinq ans et créer des API consultables avec ces informations (Engagements 8, 10, 11). Les entreprises doivent également rechercher les utilisations de la désinformation dans les publicités politiques et thématiques, y compris l’impact des courtes « périodes d’interdiction » électorales (Engagement 13 ; Mesure 13.2).

Collaboration dans l’intégrité des services

Alors que les entreprises se sont engagées à mettre en œuvre des politiques claires contre les robots et les systèmes automatisés en 2018, le nouveau Code renforce la collaboration pour éliminer les acteurs et les comportements manipulateurs. Le groupe de travail doit établir une liste des tactiques, techniques et procédures (TTP) utilisées par les acteurs malveillants et mettre à jour cette liste annuellement (Mesure 14.3). Le Code recommande des exemples tirés du Cadre des tactiques, techniques et procédures de désinformation de l’AMITT, y compris les opérations de piratage et de fuite, les prises de contrôle de compte et l’usurpation d’identité (Mesure 14.1).

Le Code oblige également les entreprises à s’engager à travailler contre la liste des pratiques manipulatrices interdites par la proposition de loi sur l’intelligence artificielle (Engagement 15). De plus, les signataires doivent se coordonner pour partager des informations sur les opérations d’influence multiplateformes et les ingérences étrangères (Engagement 16).

Responsabiliser tous les utilisateurs

Cette section est renommée dans le nouveau brouillon, de Empowering Consumers à Empowering Users. Bien que la section conserve les engagements précédents de donner la priorité aux informations exactes dans les systèmes de recommandation (Engagement 19) et d’atténuer la désinformation et la mésinformation (Engagement 18), la section est également retravaillée pour étendre les initiatives sur l’éducation aux médias (Engagement 17 ; Mesure 25.1), permettant aux utilisateurs de signaler fausses informations et faire appel des décisions d’exécution (Engagements 23 et 24), et accéder à l’historique des modifications et à l’origine du contenu par le biais d’organismes de normalisation mondiaux tels que C2PA (Engagement 20 ; Mesure 20.2).

Le Code conserve la recommandation de 2018 de développer des indicateurs de fiabilité via un processus indépendant et transparent, mais inclut également des recommandations pour les services de messagerie, telles que l’inclusion de marques indiquant la fiabilité du contenu ou la limitation des options de transfert sur les messages (Engagements 22 et 25 ; Mesure 25.2). Outre les marqueurs de fiabilité des informations, le code 2022 prévoit également une vérification des faits dans toutes les langues des États membres (Engagement 21).

Responsabiliser les chercheurs et les vérificateurs de faits

Alors que les principaux points forts de la section Empowering Researchers sont une transparence accrue et des données plus granulaires, le Code 2022 ajoute également une nouvelle section pour responsabiliser les vérificateurs de faits. Les chercheurs pourront demander un financement et accéder aux données par l’intermédiaire d’un nouvel organisme tiers indépendant, financé par les signataires, qui examinera les chercheurs et les propositions de recherche avec l’aide de l’Observatoire européen des médias numériques (EDMO) (Mesures 27.1-27.4 , 28.4). En 2018, les entreprises se sont engagées à organiser un événement annuel pour discuter des résultats de la recherche ; cet engagement n’est pas inclus dans la version 2022.

Les plateformes acceptent d’utiliser le travail de vérificateurs de faits indépendants sur leurs plateformes, d’accorder une compensation financière équitable et de créer un référentiel de contenu de vérification des faits (mesures 31.1, 30.2 et 31.3). En coordination avec l’EDMO, les entreprises doivent également fournir aux organismes de vérification des faits un meilleur accès aux données quantitatives et aux informations sur les impacts du contenu de leur plateforme (mesures 31.1 et 31.2).

Une application plus stricte et davantage de données disponibles

Les signataires créeront un nouveau site Web, appelé « Centre de transparence », où ils fourniront les conditions de service et les politiques que leur service applique pour mettre en œuvre chaque engagement et mesure auxquels ils souscrivent (Engagement 34 ; Mesure 35.1). Les utilisateurs pourront suivre la mise en œuvre du Code, les changements de politique et les décisions du groupe de travail (Mesures 35.3, 35.5 et 36.3).

Dans le Code 2022, chaque engagement et chaque mesure ont des indicateurs de niveau de service (SLI) et des éléments de rapport qualitatifs (QRE), où les signataires doivent suivre au niveau de l’État membre, et non au niveau mondial ou des données européennes agrégées, l’impact de chacune de leurs actions sur la réalisation engagements et mesures. Dans le Centre de transparence, les utilisateurs pourront comprendre chaque SLI et QRE et voir les données mises à jour pour ces référentiels (Mesures 35.6 et 36.2). La task-force devra également constituer un groupe de travail pour développer des indicateurs structurels permettant de mesurer le succès du Code (Engagement 41).

Le changement le plus important est que le code de bonnes pratiques européen sur la désinformation sera lié à la réglementation des plates-formes de l’UE en vertu de la loi sur les services numériques (DSA) presque achevée et entraînera de lourdes sanctions financières pour les entreprises qui ne se conforment pas. Le code exige que les très grandes plateformes en ligne, définies par la DSA, rendent compte tous les six mois des SLI et des QRE au niveau des États membres et mettent à jour le centre de transparence, ainsi que de s’engager dans des audits indépendants pour leur conformité au code (Engagement 40 et 44 ; Mesures 40.1 et 40.3).

« Le code jouera un rôle important dans l’évaluation du respect par les très grandes plateformes de leur obligation légale d’atténuer les risques liés à la diffusion de désinformations sur leurs systèmes », ont déclaré la vice-présidente de la Commission européenne Vera Jourová et le commissaire européen Thierry Breton. Ceci est important car les violations de la DSA entraînent de lourdes sanctions financières pour les entreprises qui ne se conforment pas. La DSA oblige les entreprises à se soumettre à des évaluations des risques obligatoires et à des audits externes pour des risques tels que la désinformation, et si les entreprises ne s’y conforment pas, elles s’exposent à des amendes pouvant aller jusqu’à 6 % de leur chiffre d’affaires mondial. Si le code de bonnes pratiques contre la désinformation devient un code de conduite au titre de l’article 35 du DSA, les Très Grandes Plateformes en Ligne pourraient être amenées à souscrire aux engagements et mesures du Code.

Signataires actuels de la dernière itération

Après le processus d’amendement initial, l’UE a invité les entreprises à signer le nouveau code. Trente-trois entreprises ont accepté, y compris de grandes entreprises technologiques telles que Google, Meta et Microsoft. Il y a encore des entreprises absentes des signataires du code de corégulation. Amazon, Apple et Telegram n’ont notamment pas signé le code. De plus, certaines entreprises ont décidé de sélectionner les mesures auxquelles elles se conformeraient, par exemple, Google, Twitter, TikTok et Meta n’ont pas accepté de mettre en place des « indicateurs de fiabilité » pour informer les utilisateurs d’une éventuelle désinformation sur leurs sites.

Alors que les signataires de la plateforme continuent de développer leurs produits et services et que la désinformation continue d’évoluer, la question plus large est de savoir si la coopération entre le secteur privé et la Commission européenne fera une différence significative contre la propagation de la désinformation en ligne. En fin de compte, la CE devra évaluer si les entreprises s’améliorent de manière significative dans le cadre des codes d’autorégulation, ou si des cadres législatifs plus stricts comme l’AVD sont nécessaires à l’avenir.


Alphabet, Apple, Amazon, Meta et Microsoft sont des donateurs généraux et sans restriction de la Brookings Institution. Les découvertes, interprétations et conclusions publiées dans cet article sont uniquement celles de l’auteur et ne sont influencées par aucun don.

Vous pourriez également aimer...