La Cour suprême de Washington.
Photo:
J.Scott Applewhite/Associated Press
La Cour suprême le 21 février reprend Gonzalez contre Google, une affaire sur l’immunité au titre de l’article 230 dont bénéficient les plateformes internet. Ce différend ne produira probablement pas la décision à succès que souhaitent les critiques de la Silicon Valley, mais cela pourrait illustrer pourquoi les questions entourant l’article 230, qui continueront de venir, sont mieux traitées par les législateurs, et non par le pouvoir judiciaire.
En vertu de l’article 230, les plateformes Internet ne peuvent pas être « traitées comme l’éditeur ou l’orateur » des informations fournies par leurs utilisateurs. Si un restaurant est diffamé sur Yelp, Facebook ou Twitter, la partie légalement responsable est l’auteur de l’avis malveillant, et non le site Web. Cela a du sens, étant donné que ces services sont des panneaux d’affichage ouverts où l’application des normes est effectuée par des modérateurs après coup.
Mais les sites Internet sont-ils responsables des algorithmes qu’ils utilisent pour trier et présenter les contenus ? Les pétitionnaires en Gonzalez contre Google dis oui. L’affaire a été portée par la famille et la succession de Nohemi Gonzalez, une étudiante américaine de 23 ans qui a été tuée lors d’une attaque de l’Etat islamique en 2015 à Paris. Leur argument est que YouTube, qui fait partie de Google, a aidé et encouragé le groupe terroriste, car ses algorithmes « recommandaient des vidéos d’ISIS aux utilisateurs », ce qui a aidé à diffuser son message.
La famille affirme que le moteur de recommandation de YouTube n’est pas couvert par l’article 230. Il y a cependant quelques problèmes. Le mémoire de Google indique que les pétitionnaires « n’ont pas allégué qu’un attaquant de Paris avait vu une vidéo de l’Etat islamique » ou « que YouTube avait joué un rôle dans l’attentat de Paris ». Une affaire connexe que les juges entendront le 22 février Twitter contre Taamnehdemande si les lois sur la complicité couvrent même les « services génériques largement disponibles » qui ne sont pas liés à un acte terroriste spécifique.
Pour qu’Internet soit utilisable, les plateformes ont besoin d’un moyen de passer au crible le déluge créé par les masses en ligne. Environ 720 000 heures de vidéo sont publiées sur YouTube chaque jour. Ses algorithmes rassemblent des vidéos pertinentes basées sur « des milliers d’entrées, y compris des facteurs tels que l’historique de recherche et de visionnage d’un spectateur sur YouTube, l’emplacement et l’heure de la journée », explique Google. La société affirme que cette conduite s’apparente à de la publication, et la section 230 stipule que YouTube n’est pas légalement responsable en tant qu’éditeur de vidéos d’utilisateurs.
Les pétitionnaires tentent de distinguer YouTube des moteurs de recherche tels que Google, mais cet effort n’est pas convaincant car la fonctionnalité est similaire. Cela ne veut pas dire que l’article 230 va toujours aussi loin que le souhaitent les entreprises technologiques. Les tribunaux étendent probablement la loi s’ils appliquent son immunité à un contenu qu’une plate-forme savait être illégal ou avoir participé directement à la création.
L’une des raisons de ces complexités est que l’article 230 a été adopté en 1996, deux ans avant la création de Google, trois ans avant l’invention du mot « blog » et lorsque Mark Zuckerberg avait 11 ans. C’est pourquoi il semble parler au-delà des controverses d’aujourd’hui. Les sites de médias sociaux bénéficient-ils d’une immunité pour les vérifications des faits qu’ils ajoutent aux publications contestées ? Et si les moteurs de recherche utilisaient des modèles de langage pour répondre directement aux requêtes des utilisateurs, avec du texte synthétisé à partir du Web ?
Il est difficile de voir comment Internet tel que nous le connaissons fonctionnerait sans la protection de responsabilité de base de l’article 230, et toute tentative du GOP de créer une doctrine d’équité pour surveiller la parole sur le Web serait une grave erreur.
Mais les législateurs pourraient imposer plus de transparence sur la manière dont les politiques de modération sont appliquées. Ils pourraient établir des règles pour empêcher les représentants du gouvernement de contraindre secrètement les plates-formes à la censure. Ils pourraient également clarifier comment une loi de l’ère AOL s’applique à une ère de l’IA qui était inimaginable en 1996.
Rapport éditorial du journal : les républicains ouvrent la politique de Twitter. Images : Getty Images Composition : Mark Kelly
Copyright ©2022 Dow Jones & Company, Inc. Tous droits réservés. 87990cbe856818d5eddac44c7b1cdeb8
Apparu dans l’édition imprimée du 14 février 2023 sous le nom de » ISIS, YouTube and Section 230 « .
