Le gouvernement britannique supprime les dispositions « légales mais nuisibles » de son projet de loi révisé sur la sécurité en ligne

Le 28 novembre, le gouvernement britannique a annoncé des changements majeurs à son projet de loi sur la sécurité en ligne. La législation languit au Parlement depuis juin, et les modifications visent à faciliter son adoption. Les projets d’amendements proposés, publiés deux jours plus tard, démontrent à quel point il est difficile pour les gouvernements de réglementer les contenus en ligne préjudiciables, même dans un pays où les protections de la liberté d’expression sont plus limitées que le premier amendement. Les révisions proposées :

  • Supprimez les dispositions relatives au contenu légal mais préjudiciable aux adultes.
  • Fournir des mécanismes permettant aux utilisateurs d’éviter l’exposition à certains contenus définis dans le projet de loi, tels que les discours de haine ou l’incitation à l’automutilation.
  • Criminaliser l’incitation à l’automutilation, la pornographie « deepfake » non consensuelle et le « downblousing ».
  • Exiger des entreprises de médias sociaux qu’elles suppriment le contenu uniquement s’il est illégal ou enfreint leurs normes annoncées publiquement, qu’elles mettent en place des systèmes pour faire respecter leurs normes annoncées publiquement et qu’elles prévoient un processus d’appel pour les utilisateurs dont le contenu a été supprimé.

Ces projets de modifications sont un sac mélangé. La procédure régulière et les mesures de transparence sont toutes bonnes. L’obligation pour les entreprises de prendre des mesures contre le contenu qu’elles disent vouloir restreindre est également une mesure précieuse de protection des consommateurs. D’un autre côté, les changements affaiblissent la position ferme du projet de loi contre le matériel en ligne préjudiciable tout en maintenant une exigence problématique pour les entreprises de médias sociaux de prendre certaines mesures en rapport avec le matériel que le gouvernement lui-même a identifié. Le simple fait de garder les contenus nuisibles hors des flux des personnes qui ne veulent pas les voir est évidemment un moyen inefficace de protéger le public contre les effets du désordre de l’information. De plus, en imposant une nouvelle obligation de ne pas agir contre le matériel en ligne à moins qu’il ne viole les normes publiées d’une entreprise, le projet de loi pourrait rendre plus difficile pour les entreprises de répondre aux nouveaux défis de la parole en ligne jusqu’à ce que le dommage soit fait.

Le gouvernement britannique a transmis son paquet d’amendements à la commission compétente de la Chambre des communes, qui les examine dans le cadre d’un processus qui a débuté le 5 décembre. D’autres amendements sont possibles au cours de ce processus législatif, qui devrait prendre quelques mois. Le gouvernement britannique s’attend à ce que le projet de loi soit adopté par la Chambre des communes en janvier.

L’arrière-plan

Certains articles de presse ont suggéré que les références au « matériel légal mais préjudiciable » étaient ciblées pour être supprimées parce que le projet de loi obligeait les entreprises de médias sociaux à « éliminer » ce matériel même s’il restait parfaitement légal en vertu de la loi britannique. Mais cette interprétation est une lecture erronée de la version antérieure du projet de loi.

Le projet de loi précédent obligeait le secrétaire d’État à désigner des catégories de contenu qui seraient considérées comme préjudiciables aux adultes. La fiche d’information accompagnant le projet de loi indiquait que ces catégories pouvaient inclure les abus, le harcèlement et l’exposition à des contenus encourageant l’automutilation ou les troubles de l’alimentation, ainsi que les abus misogynes et la désinformation. Le Parlement aurait dû approuver les désignations par le secrétaire d’État.

Le projet de loi précédent aurait également obligé les entreprises à effectuer des évaluations des risques liés à ce matériel, à prendre l’une des quatre mesures pour le traiter, y compris la possibilité de le laisser sur leurs systèmes, et à décrire dans leurs rapports de transparence comment elles ont traité ce matériel.

En vertu du projet de loi précédent, les plateformes qui choisissent de diffuser du matériel légal mais préjudiciable seraient tenues de développer des « systèmes ou processus » à la disposition des utilisateurs qui sont conçus pour « réduire la probabilité » que l’utilisateur rencontre un contenu préjudiciable ou « alerter l’utilisateur » pour qu’il le caractère nocif du matériau.

Les révisions

Divers groupes, dont certains hauts responsables conservateurs et certains groupes de liberté d’expression, se sont opposés à l’existence même d’une catégorie définie par le gouvernement de « discours légal mais nuisible », même si les plateformes n’étaient pas explicitement tenues de supprimer ce matériel. Le message, selon eux, était suffisamment clair : le gouvernement voulait que ce matériel soit limité ou retiré des médias sociaux, même s’il s’agissait de matériel qui pouvait légalement être diffusé dans d’autres médias tels que des livres, des journaux ou des magazines. Apparemment, cette inquiétude était suffisante pour retarder la facture.

En conséquence, les modifications que vient de proposer le gouvernement britannique priveraient le secrétaire d’État du pouvoir de définir le contenu légal mais préjudiciable et supprimeraient toutes les obligations liées à ce contenu, y compris les évaluations des risques, la couverture des rapports de transparence et l’obligation de prendre l’une des quatre mesures spécifiées en rapport avec le matériau.

Mais les modifications proposées conservent l’obligation d’autonomisation des utilisateurs, obligeant les entreprises à adopter et à maintenir des mesures qui permettraient aux utilisateurs de contrôler leur exposition à certaines catégories d’informations. Le projet de loi définit explicitement ces catégories, y compris le matériel relatif au suicide, à l’automutilation délibérée, aux troubles de l’alimentation, à l’abus ou à l’incitation à la haine envers les personnes en raison de leur race, de leur religion, de leur sexe, de leur orientation sexuelle, de leur handicap ou de leur sexe. De plus, l’agence de régulation d’application Ofcom, l’autorité de régulation des médias traditionnels, doit produire des orientations qui contiennent des exemples de contenu qui, selon l’agence, est inclus (ou non inclus) dans chacune de ces catégories et est donc soumis à l’exigence d’autonomisation des utilisateurs.

L’annonce du gouvernement britannique concernant les nouveaux amendements est trompeuse dans sa déclaration catégorique selon laquelle « le projet de loi ne définira plus les types spécifiques de contenu juridique auxquels les entreprises doivent répondre ». Les nouveaux amendements mentionnent explicitement certains types de contenus légaux que les entreprises de médias sociaux doivent traiter en vertu de l’obligation de fournir l’autonomisation des utilisateurs. En vertu de ces modifications proposées, les entreprises de médias sociaux n’ont aucune obligation de fournir aux utilisateurs des outils pour se protéger des discours politiques controversés, par exemple, mais elles ont une telle obligation en ce qui concerne les discours de haine. Cela suggère que certains discours juridiques sont plus dignes que d’autres aux yeux du gouvernement britannique. Les défenseurs de la liberté d’expression qui se sont opposés au rôle du secrétaire d’État dans la définition du « matériel légal mais préjudiciable » dans l’ancienne version du projet de loi ne seront pas satisfaits de cette nouvelle désignation statutaire de certains discours juridiques comme nécessitant des mesures spéciales d’autonomisation des utilisateurs.

Le gouvernement a également l’intention d’ajouter des mesures au projet de loi qui criminaliseraient le matériel qui encourage les utilisateurs à s’automutiler. Ce changement a été introduit en réaction au décès de Molly Russell, 14 ans, décédée en 2017 après avoir visionné certains contenus en ligne préjudiciables. Malgré cette mesure de criminalisation, le père de Molly, Ian, s’est opposé à l’amendement supprimant les mesures liées au contenu légal mais préjudiciable, tout comme le Parti travailliste d’opposition. Lucy Powell, porte-parole de la culture du Labour, a déclaré que cela donnerait «un laissez-passer gratuit aux agresseurs».

Le gouvernement britannique a également annoncé son intention de criminaliser la pornographie « deepfake » non consensuelle et le « downblousing ». Cette mesure de criminalisation comprendrait des images explicites prises sans le consentement de quelqu’un au moyen de caméras cachées ou de photographies clandestines, ainsi que des images ou des vidéos explicites qui ont été manipulées pour ressembler à quelqu’un sans son consentement. Ces changements devraient faire le bonheur de la professeure de droit Danielle Citron. Son dernier livre demande des exemptions de l’article 230 de la loi sur la décence des communications pour la pornographie de vengeance.

Les nouveaux amendements comprennent des mesures visant à promouvoir la parole, y compris une obligation « de ne pas agir contre les utilisateurs, sauf conformément aux conditions d’utilisation ». En vertu de cette nouvelle disposition, les entreprises « ne seront pas en mesure de supprimer ou de restreindre le contenu légal, ou de suspendre ou d’interdire un utilisateur, à moins que les circonstances pour le faire ne soient clairement énoncées dans leurs conditions d’utilisation ». Ils seront également autorisés à supprimer du contenu contraire à la loi. Les nouveaux amendements contiennent également l’exigence d’un « droit de recours effectif » lorsque le message d’un utilisateur a été supprimé ou limité.

De plus, comme décrit dans l’annonce du gouvernement, les nouvelles modifications comportent une mesure supplémentaire de protection des consommateurs. Lorsque les entreprises de médias sociaux établissent leurs règles de contenu, elles doivent « tenir leurs promesses envers les utilisateurs et appliquer systématiquement leurs politiques de sécurité des utilisateurs ». Si une entreprise interdit « les abus racistes et homophobes ou la désinformation nocive pour la santé », par exemple, elle doit mettre en place des systèmes et des processus pour « s’attaquer » à ce contenu interdit. Le nouveau projet de loi conserve son mécanisme d’application, permettant à l’Ofcom d’infliger aux entreprises une amende pouvant atteindre 10 % de leur chiffre d’affaires annuel.

Un sac mélangé

Les perspectives du projet de loi à ce stade ne sont pas claires. Malgré l’opposition du parti travailliste, ses chances d’aller de l’avant se sont améliorées. Mais les changements ont déçu beaucoup de ceux qui espéraient une approche plus cohérente et plus énergique. Le journaliste britannique Chris Stokel-Walker parle au nom de beaucoup lorsqu’il qualifie le projet de loi révisé de « phare de la médiocrité ».

Je pense que c’est un jugement trop sévère, mais il y a quelque chose d’imprudent dans l’approche fondamentale du projet de loi qui consiste à permettre à la désinformation, aux discours de haine et au racisme de prospérer en ligne, à condition seulement que les entreprises de médias sociaux trouvent un moyen de garder ce matériel hors des flux des personnes qui ne veux pas le voir. Ce n’est pas comme si nous pouvions nous protéger des effets néfastes du désordre de l’information en ligne en cultivant une ignorance volontaire de son existence.

De plus, la nouvelle orientation du Royaume-Uni n’inclut pas deux mesures importantes que j’ai recommandées dans un commentaire antérieur de TechTank. La première, qui est une disposition permettant aux chercheurs d’accéder aux données des entreprises de médias sociaux, est essentielle pour vérifier si l’une des autres mesures fait du bien et pour découvrir d’autres moyens de lutter contre les contenus préjudiciables en ligne. La seconde, une disposition pour une plus grande implication des groupes de défense des libertés civiles, contribuerait grandement à garantir que les excès ou la collusion du gouvernement avec l’industrie réglementée soient maîtrisés.

Le Parlement doit encore approuver ces nouvelles mesures et pourra ajouter ses propres dispositions lors de son examen au cours des prochains mois. Il reste suffisamment de temps pour reconsidérer certaines des mesures problématiques encore contenues dans le projet de loi sur la sécurité en ligne, comme proposé par le gouvernement britannique, et pour ajouter des dispositions vitales pour l’accès des chercheurs et la participation de la société civile.

Vous pourriez également aimer...