Cours de modération de contenu en ligne hors des États-Unis

Après le décret du président Donald Trump et les tweets connexes, le sénateur Josh Hawley (R-MO) travaille sur un projet de loi qui réformerait l'article 230, le régime de responsabilité intermédiaire des plateformes Internet. Alors que les États-Unis ont eu plusieurs tentatives infructueuses de réforme de la loi, d'autres pays ont créé, adopté, réformé ou invalidé leur propre législation. Cet article explique les tendances générales de la réglementation dans le monde, en mettant en évidence deux cas spécifiques, l'Europe et le Brésil, où des réformes similaires à celles demandées aux États-Unis sont en cours, avant de tirer des conclusions.

Autour du monde

L'une des plus anciennes réglementations en matière de responsabilité des intermédiaires en dehors des États-Unis vient de l'Inde, où sa loi informatique de 2000 crée un havre de paix pour les intermédiaires. Contrairement à l'article 230, qui prévoit l'immunité avec des exceptions limitées, la réglementation de la sphère de sécurité de l'Inde ne protège la plate-forme de sa responsabilité que si elle respecte certaines conditions. Ces conditions ont été resserrées en 2011 pour inclure des actions et des types de contenu plus nécessaires qui devraient être supprimés une fois que les plates-formes sont au courant (via les utilisateurs qui les signalent), afin de maintenir la protection du port. En 2018, un projet de loi non encore voté aurait poussé les plateformes à surveiller de manière proactive le contenu et à supprimer le contenu illégal dans les 24 heures (contre 36 en 2011) lorsqu'elles sont signalées par une décision de justice ou un organisme gouvernemental.

Les directives kenyanes de 2017 ont également demandé aux plateformes de «modérer et contrôler» tout contenu indésirable dans les 24 heures suivant la notification, mais la loi a été abattue par la Haute Cour du Kenya et critiquée par les rapporteurs spéciaux des Nations Unies. Un projet de loi non ratifié de 2018 au Honduras ne demande pas un suivi constant, mais ajoute des amendes importantes ou un blocage absolu à ses demandes, tout en créant également un organe externe non judiciaire avec des mandats ambigus et un manque de recours.

D'autres pays ont des règles et des conséquences encore plus strictes pour certains types de contenu. Adopté en 2019 en réponse à l'attaque en direct de la mosquée de Christchurch, en Nouvelle-Zélande, un amendement au Code pénal australien oblige les entreprises non seulement à modérer de manière proactive le contenu qui encourage ou diffuse des actes de «violence odieuse», mais aussi à le signaler, avec des sanctions de grande ampleur. amendes ou même prison pour non-respect. La plus stricte est la loi de 2007 sur les délits informatiques de la Thaïlande, modifiée en 2016, qui oblige pratiquement les plateformes à surveiller et à modérer de manière préventive tout le contenu, ainsi qu'à supprimer tout ce que la junte militaire exige, ou à subir de lourdes amendes et des peines de prison.

À l’autre extrémité du spectre se trouve la Loi de 2011 sur la modernisation du droit d’auteur du Canada, qui codifie l’immunité en matière de responsabilité uniquement en matière de droit d’auteur. Les intermédiaires ne sont pas chargés de retirer le contenu mais d'être le canal d'échange des avis et contre-avis.

L'Europe 

En 2000, l'Union européenne a adopté la directive sur le commerce électronique qui, comme l'Inde, a opté pour une approche refuge, si la plate-forme est un «simple conduit», ou si elle supprime rapidement le contenu illégal, une fois informé. Il ajoute également expressément que les pays membres ne devraient pas demander aux plateformes de surveiller activement le contenu qu'ils hébergent. Deux décennies plus tard, tout comme aux États-Unis, il y a de plus en plus d'appels à une mise à jour de la directive de la part de sa propre commission exécutive. Cependant, contrairement aux États-Unis, il y a déjà eu un mouvement important au niveau des États membres.

Contrairement à d'autres pays qui sont préoccupés par les cas dans lesquels les plates-formes peuvent être protégées de toute responsabilité, la loi allemande sur l'application des réseaux (NetzDG) ​​de 2017 et le projet de loi français «Lutte contre la haine sur Internet» de 2020 se concentrent sur la manière et le moment où les sociétés Internet seront punies, via de lourdes amendes. Créées dans le but de stopper la diffusion de contenus illicites et préjudiciables en ligne, ces lois accordent aux plateformes un délai bref (24 heures en Allemagne) ou très bref (1 heure en France) pour répondre en supprimant les contenus prétendument illégaux dénoncés par des individus. à propos. Tout en évitant de demander une surveillance constante, cela conduirait sans doute à des pratiques de modération plus restrictives.

Ne faisant plus partie de l'Union européenne, le Royaume-Uni a publié un livre blanc de 2019 sur les dommages en ligne, qui irait plus loin que tout autre règlement de l'UE. Au-delà de la perspective désormais standard de demander aux plateformes d'avoir un mécanisme pour supprimer les contenus illicites, elle introduit la notion de «devoir de diligence» indéfini qui entraîne une analyse proactive et constante des publications (toujours interdite au sein de l'UE), le tout sous le patronage d'une nouvelle institution de réglementation qui aurait l'autorité ultime, y compris la création et l'application des meilleures pratiques, l'imposition d'amendes et même des peines de prison.

Brésil

Le Brésil débat d'un projet de loi qui pourrait éventuellement renforcer la responsabilité déjà codifiée des plateformes. En 2014, le pays a adopté le point de repère Marco Civil da Internet (Bruna Santos faisait partie de l'équipe de rédaction du projet de loi) qui tentait de protéger les droits des utilisateurs et de créer des devoirs pour les acteurs Internet. La loi protège certaines plates-formes contre les dommages civils, à l'exception du non-respect des ordonnances judiciaires qui demandent la suppression du contenu «offensant» (certains types de contenu ne nécessitent pas d'ordonnance judiciaire).

Une élection de 2016 très contestée a vu une large diffusion de la désinformation. L'élection de Jair Bolsonaro à la présidence a incité les députés progressistes à considérer que Marco Civil n'était pas suffisant pour tenir les plateformes responsables. Un nouveau projet de loi appelé Loi brésilienne sur la liberté, la responsabilité et la transparence sur Internet a été introduit, qui dans sa version originale reproduisait la structure de NetzDG (et de la facture française de 2020) mais avec un bassin de contenu encore plus large qu'il atteint. Les versions ultérieures se sont éloignées de la perspective européenne, mais ont viré vers une surveillance constante, ainsi que l'identification de masse et la traçabilité des utilisateurs sur les applications de messagerie comme WhatsApp.

Conclusion

L'écosystème international de réglementation de la responsabilité des intermédiaires est chaotique, car la plupart des lois traitent de tranches de contenu spécifiques. Chaque problème, qu'il s'agisse de droit d'auteur, de désinformation, de discours de haine ou de matériel sexuellement abusif, a sa propre solution unique. Comme le montre l'exemple du Brésil, même un régime établi pour garantir la liberté d'expression peut susciter des appels au changement. Des questions comme la désinformation et le discours de haine ont occupé le devant de la scène et mis à l'épreuve les limites de la législation. Cependant, la réforme américaine devrait également tenir compte des retombées de lois plus strictes comme NetzDG en Allemagne, qui a été critiqué comme la raison de démantèlements trop zélés et d'une disponibilité moindre du contenu en ligne.

Les rédacteurs de nouvelles lois sur la responsabilité des intermédiaires doivent répondre à de nombreuses questions. Ce qui est clair, c'est que les États-Unis devraient en fin de compte éviter de rendre obligatoire une surveillance proactive généralisée du contenu, ce que même l'Union européenne a jusqu'à présent évité et les hautes juridictions du monde entier ont invalidé. Alternativement, les législateurs peuvent également s'inspirer du point de vue des droits de l'homme des principes empiriques de Manille et du rapport du rapporteur spécial des Nations Unies de 2018, qui plaident en faveur de restrictions limitées de la responsabilité, d'une implication judiciaire indépendante et d'un accent mis sur la transparence et la régularité de la procédure. Selon les Principes 2019 à l'intention des décideurs, plus axés sur les États-Unis (David Morar était signataire), toute réforme ne devrait pas exiger la suppression du discours protégé par la Constitution, sans décourager la modération du contenu. Si une réforme se profile à l'horizon, les États-Unis peuvent une fois de plus établir une référence en matière de législation sur la responsabilité, ou au moins tirer les leçons des erreurs d'autres pays.

Vous pourriez également aimer...