Les conséquences de l’expérience géante des médias sociaux

Facebook et Twitter ont banni Donald Trump de leurs plateformes. Fuyant vers l’alternative de droite, Parler a été effectivement fermé par la décision d’Amazon de cesser de l’héberger sur Amazon Web Services alors qu’Android et Apple l’ont supprimé de leurs magasins d’applications.

Les actions de Facebook et Twitter sont protégées par l’article 230 de la loi de 1996 sur les communications. C’est le même article 230 derrière lequel les entreprises de médias sociaux se sont abritées pour les protéger de toute responsabilité pour la diffusion de la haine, des mensonges et des complots qui ont finalement conduit à l’attaque contre le Capitole américain le 6 janvier.

Ces actions sont meilleures tard que jamais. Mais le cheval proverbial a quitté la grange. Ces jugements éditoriaux et commerciaux démontrent cependant à quel point les entreprises ont une grande capacité à agir consciencieusement pour protéger l’utilisation responsable de leurs plateformes.

Le paragraphe (2) de l’article 230 stipule qu’une plate-forme ne peut être tenue responsable de «toute action volontairement prise de bonne foi pour restreindre l’accès ou la disponibilité du matériel que tout fournisseur ou utilisateur considère comme… excessivement violent, harcelant ou autrement répréhensible … »En d’autres termes, les décisions éditoriales des entreprises de médias sociaux sont protégées, pour autant qu’elles soient prises de bonne foi.

C’est le paragraphe (1) qui a isolé les entreprises de médias sociaux de la responsabilité de porter de tels jugements éditoriaux. Ces 26 mots sont au cœur du problème: «Aucun fournisseur ou utilisateur d’un service informatique interactif ne doit être traité comme l’éditeur ou l’orateur de toute information fournie par un autre fournisseur de contenu d’information.» Cette seule phrase crée l’énigme actuelle. Si vous êtes à l’abri des conséquences de vos actes et que vous gagnez beaucoup d’argent en exploitant cette isolation, alors quelle est l’incitation à agir de manière responsable?

Ces 26 mots sont au cœur du problème: «Aucun fournisseur ou utilisateur d’un service informatique interactif ne doit être traité comme l’éditeur ou l’orateur de toute information fournie par un autre fournisseur de contenu d’information.»

Les entreprises ont fermé au moins un menteur et bloqué une voie alternative pour ses diatribes. Facebook et Twitter (et la filiale YouTube de Google) sont protégés par le paragraphe (2) lorsqu’ils prennent cette décision éditoriale. Pourquoi ne l’ont-ils pas fait plus tôt? Les actions des entreprises pour gérer le contenu des applications, la promotion des applications et l’hébergement des applications ont été décisives et justifiées. La question est «pourquoi pas jusqu’à maintenant?»

Les entreprises de médias sociaux nous ont mis au milieu d’une expérience de laboratoire énorme et explosive où nous voyons la combinaison toxique de la technologie numérique, du contenu non modéré, des mensonges et de la haine. Nous avons maintenant la réponse à ce qui se passe lorsque ces fonctionnalités et d’importants bénéfices sont combinés dans un monde connecté. Le résultat a non seulement été improductif pour le discours civil, mais aussi qu’il représente un danger pour les systèmes démocratiques et la résolution efficace des problèmes.

Traiter avec Donald Trump est un problème ciblé que les entreprises viennent de résoudre de manière décisive. Les sociétés de médias sociaux affirment cependant qu’elles n’ont aucun moyen de contrôler de manière significative les informations qui circulent sur leur plate-forme. Il est difficile de croire que les esprits brillants qui ont produit les algorithmes et l’intelligence artificielle qui alimentent ces plates-formes sont incapables de trouver de meilleurs résultats à partir de ce qu’ils ont créé. Ce n’est pas l’incapacité technologique qui les a empêchés d’exercer la responsabilité que nous attendons de tous les autres médias, c’est le manque de volonté et de désir de profits à grande échelle. Le modèle économique des entreprises est construit autour de retenir l’attention de l’utilisateur afin qu’il puisse afficher plus de messages payants. Fournir ce que l’utilisateur veut voir, le plus scandaleux sera le mieux, retient cette attention et sonne la caisse enregistreuse.

Jusqu’à présent, nos dirigeants politiques se sont déclarés préoccupés par les effets de l’article 230. Trop souvent, cette activité a été une performance pour leur base plutôt qu’un progrès vers une solution. Alors que le Congrès examine sérieusement l’article 230, voici quelques idées:

Les entreprises de médias sociaux sont des médias, pas de la technologie

Mark Zuckerberg a témoigné devant le Congrès: «Je considère que nous sommes une entreprise de technologie parce que la principale chose que nous faisons est d’avoir des ingénieurs qui écrivent du code et créent des produits et des services pour d’autres personnes.» Ce code logiciel, cependant, prend des décisions éditoriales sur les informations à choisir pour acheminer vers quelles personnes. C’est une décision médiatique. Les entreprises de médias sociaux gagnent de l’argent en vendant l’accès à leurs utilisateurs, tout comme ABC, CNN ou le New York Times.

Il existe des normes de comportement bien établies pour les entreprises de médias

Le débat devrait porter sur la question de savoir si et comment ces normes changent en raison du contenu généré par les utilisateurs. L’absence absolue de responsabilité prévue par l’article 230 a empêché ce débat d’avoir lieu.

La technologie doit faire partie de la solution

Lorsque les entreprises embauchent des milliers d’examinateurs humains, c’est plus des relations publiques que de la protection. Demander aux humains d’inspecter les données constamment générées par les algorithmes, c’est comme regarder un tsunami à travers une paille. La puissance incroyable des ordinateurs a créé cette situation, la puissance incroyable des ordinateurs doit faire partie de la solution.

Il est temps d’arrêter d’agir en secret

Lorsque les algorithmes prennent des décisions sur le contenu entrant à sélectionner et à qui il est envoyé, les machines prennent une décision éditoriale protégée. Contrairement aux décisions éditoriales des médias traditionnels dont les décisions éditoriales sont annoncées publiquement dans la presse ou à l’écran et uniformément vues par tous, les déterminations des plateformes sont secrètes: ni annoncées publiquement ni uniformément disponibles. La décision éditoriale algorithmique n’est décelable qu’accidentellement quant à la source de l’information et même au fait qu’elle est diffusée. Exiger des plates-formes qu’elles fournissent une API ouverte (interface de programmation d’application) à leurs entrées et sorties, avec des protections de confidentialité appropriées, n’interférerait pas avec la prise de décision éditoriale. Cela permettrait cependant à des tiers de construire leurs propres algorithmes afin que, comme d’autres médias, les résultats du processus éditorial soient vus par tous.

S’attendre à ce que les entreprises de médias sociaux assument la responsabilité de leurs pratiques n’est pas un problème du premier amendement. Ce n’est pas le contrôle ou le choix du gouvernement sur la circulation de l’information. C’est plutôt l’exercice responsable de la liberté d’expression. Il y a longtemps, il a été déterminé que le mensonge qui criait «FEU!» dans un théâtre bondé n’était pas la liberté d’expression. Nous devons maintenant déterminer quel est l’équivalent de «FEU!» dans le théâtre numérique bondé.


Apple, Amazon, Facebook et Google sont des donateurs généraux et sans restriction de la Brookings Institution. Les résultats, interprétations et conclusions de cet article sont uniquement ceux de l’auteur et ne sont influencés par aucun don.

Vous pourriez également aimer...