Comment résoudre le problème des troubles alimentaires des médias sociaux ?

Les troubles de l’alimentation ont augmenté au cours de la pandémie. Au cours des deux dernières années, le nombre d’adolescents admis dans les hôpitaux pour des troubles de l’alimentation a monté en flèche, les experts médicaux citant l’augmentation du temps passé sur les réseaux sociaux comme facteur contributif. Comme le prétend une recherche interne divulguée par le dénonciateur Meta Francis Haugen, « la tendance à ne partager que les meilleurs moments [and] une pression pour avoir l’air parfait » pourrait donner à beaucoup le désir de paraître ou d’agir différemment. Cela, associé à une pléthore de contenus en ligne sur les régimes et ce que signifie avoir le corps parfait, a encore exacerbé les insécurités des utilisateurs et les a induits en erreur sur des voies dangereuses. Poussés à l’extrême, de nombreux utilisateurs de médias sociaux ont également été guidés vers de dangereuses communautés pro-troubles de l’alimentation, des coins d’Internet où les utilisateurs s’encouragent activement et se font honte pour perdre du poids malsain, voire mortel.

Les législateurs sont de plus en plus conscients de ces dangers. Lors d’une audience en septembre dernier, le sénateur Richard Blumenthal (D-CT) a demandé à son bureau de créer un faux compte Instagram pour comprendre la prévalence du contenu pro-troubles de l’alimentation sur la plateforme. Alors que les législateurs s’efforcent de maintenir les entreprises technologiques à un niveau plus élevé de protection des utilisateurs, il s’agit d’un aspect important de la sécurité des utilisateurs qui ne peut être négligé.

Les communautés pro-troubles de l’alimentation ne sont pas nouvelles

Les communautés pro-troubles de l’alimentation ont une longue histoire sur Internet. Dès 2001, Yahoo a supprimé 113 sites Web pro-anorexie de ses serveurs. Après un exposé du Huffington Post sur les blogs « thinspiration » sur Tumblr, la plateforme a pris des mesures contre un groupe de blogs pro-troubles alimentaires. Et des décennies après la première apparition du problème, les médias sociaux continuent de lutter contre le même problème. Au cours des dernières années, YouTube, Instagram, TikTok et bien d’autres ont été critiqués pour ne pas avoir traité le contenu et les termes de recherche pro-troubles de l’alimentation sur leurs plateformes. Des communautés de passionnés de troubles alimentaires ont été trouvées sur Twitter, Discord, Snapchat et plus encore.

Tous les principaux réseaux de médias sociaux stipulent explicitement dans leurs conditions d’utilisation que les utilisateurs ne doivent pas promouvoir les comportements d’automutilation, y compris la glorification des troubles de l’alimentation. Les politiques publicitaires sur Pinterest, Instagram, Snapchat, TikTok et d’autres plateformes en ligne ont interdit ou imposé des restrictions sur les publicités de perte de poids. Sur la plupart des plateformes, les termes de recherche et les hashtags tels que « anorexie », « boulimie » et « thinspiration » ont été rendus impossibles à rechercher. Lorsque les utilisateurs recherchent des termes connexes, ils sont plutôt dirigés vers une page « besoin d’aide », avec des ressources telles que la ligne d’assistance téléphonique des bénévoles de la National Eating Disorder Association (NEDA).

Pourtant, le problème des troubles de l’alimentation des plateformes de médias sociaux reste non résolu car, en fin de compte, ce n’est qu’une partie d’un problème plus vaste et beaucoup plus complexe. Alors que les documents Facebook divulgués affirmaient qu’une adolescente sur trois avait déclaré que ses problèmes d’image corporelle avaient été aggravés par la plate-forme Instagram de Meta, d’autres chercheurs ont remis en question cette conclusion, signalant que « démêler la cause et l’effet dans la recherche corrélationnelle qui relie l’expérience et la santé mentale est un énorme défi ». Il est également important de considérer comment les expériences de vie des utilisateurs façonnent leurs expériences sur les réseaux sociaux, car les messages nuisibles sur l’alimentation et les régimes n’existent pas uniquement dans le vide des réseaux sociaux. La culture diététique est omniprésente dans le monde moderne, enracinée dans la conviction qu’être mince équivaut à la santé et à l’attractivité, se manifestant par des «recettes sans culpabilité» et des résolutions du Nouvel An pour perdre du poids. À leur tour, les habitudes alimentaires désordonnées sont souvent normalisées, une enquête de 2008 parrainée par l’Université de Caroline du Nord à Chapel Hill rapportant que 75% des femmes signalent des comportements alimentaires désordonnés dans tous les groupes d’âge, races et ethnies. Mais les femmes ne sont pas les seules victimes des troubles de l’alimentation, et la maladie affecte les personnes de tous les sexes et de toutes les identités sexuelles. Les troubles de l’alimentation sont un problème grave et ont le taux de morbidité le plus élevé de toutes les maladies mentales.

Mais si les plateformes de médias sociaux ne sont pas les seules responsables de provoquer des troubles de l’alimentation, elles sont chargées de les amplifier auprès d’un public plus large. De plus en plus de jeunes utilisent Internet comme un outil pour trouver des réponses, en suivant les conseils erronés ou même dangereux d’influenceurs et de pairs. Les plateformes s’appuient sur des algorithmes d’apprentissage automatique pour filtrer le contenu en fonction des préférences des utilisateurs et rechercher de nouveaux publics pour diverses informations, en particulier afin de pouvoir commercialiser davantage d’annonces. Pour les utilisateurs ayant des problèmes d’image corporelle préexistants, la recherche d’une ou deux vidéos de fitness ou de recettes saines pourrait remplir leurs flux avec des vidéos similaires, et ceux qui continuent à regarder un contenu similaire pourraient facilement être amenés à un contenu faisant explicitement la promotion des troubles de l’alimentation. Une telle exposition régulière peut déclencher ou aggraver des comportements alimentaires désordonnés chez les utilisateurs. Pour les plateformes de médias sociaux en réseau fermé telles que Snapchat ou Discord, les mêmes fonctionnalités qui permettent aux gens de se connecter avec ceux qu’ils n’ont jamais rencontrés auparavant ont également facilité la formation de discussions de groupe fermées, où les utilisateurs partagent leur poids et encouragent les autres à vite.

Les mesures existantes sont insuffisantes

Les politiques de retrait existantes sont insuffisantes à plusieurs égards. Comme pour la plupart des autres défis de modération de contenu, les personnes et les entreprises qui publient et promeuvent ce contenu ont déjoué les systèmes d’intelligence artificielle avec des alternatives mal orthographiées aux termes de recherche interdits et aux hashtags permettant aux utilisateurs de se trouver. De nombreux utilisateurs publient également du contenu non balisé, qui peut passer inaperçu dans les systèmes existants.

Parmi les plates-formes et les autres parties prenantes, il y a aussi le plus gros problème de savoir ce qui doit et ne doit pas être supprimé. Lorsqu’on parle de bien-être des utilisateurs, il est également important de reconnaître que les utilisateurs qui contribuent à ces plateformes, même ceux qui glorifient activement les troubles de l’alimentation, sont également aux prises avec des maladies mentales débilitantes, et que la suppression de comptes pourrait les couper des communautés dont ils ont tant besoin. de soutien.

Ce qui peut être fait?

La bonne nouvelle est que ces défis ne sont pas insurmontables et qu’il existe des méthodes permettant aux entreprises de médias sociaux d’améliorer leurs réponses aux contenus faisant la promotion des troubles alimentaires. En ce qui concerne le fonctionnement des algorithmes dans le statu quo, le problème est qu’ils fonctionnent trop bien pour répondre aux préférences des utilisateurs, bombardant les utilisateurs avec le contenu dont ils ont besoin pour faciliter leur automutilation. Reconnaissant ces erreurs à la suite des retombées sur les journaux Facebook, Meta a annoncé le déploiement d’une fonction « coup de pouce » pour les adolescents sur Instagram, qui peut être activée lorsqu’un utilisateur passe beaucoup de temps à regarder des vidéos d’entraînement ou du contenu diététique. En réponse, l’algorithme les redirigerait plutôt vers des contenus sans rapport, tels que des vidéos d’animaux ou des photos de voyage. Des fonctions similaires pourraient être activées sur d’autres plates-formes et pour tous les utilisateurs, car les troubles de l’alimentation pourraient affecter un large éventail de personnes autres que les adolescentes. Pour encourager la responsabilité algorithmique, les chercheurs devraient également avoir accès aux données de la plateforme. Cela permettrait aux spécialistes des troubles alimentaires et du bien-être des adolescents d’analyser comment les algorithmes de la plateforme gèrent et suppriment ce contenu. L’implication de normes tierces accroît la pression sur les plateformes pour qu’elles soient responsables du bien-être de leurs utilisateurs. Bien qu’il soit peu probable que les plateformes commencent à le faire volontairement, la loi sur les services numériques de l’UE est susceptible d’ouvrir de telles voies à l’avenir. Un cadre similaire pour les États-Unis serait utile pour encourager d’autres recherches et promouvoir la responsabilisation.

Les utilisateurs devraient également bénéficier d’une plus grande marge de manœuvre pour filtrer les contenus susceptibles de nuire à leur bien-être. Un exemple utile de ceci serait Twitter « muet», qui permet aux utilisateurs d’éviter de voir des tweets sur des mots-clés spécifiés. L’étendre à toutes les plateformes pourrait donner aux utilisateurs les outils dont ils ont besoin pour éviter les contenus dangereux selon leurs propres conditions. Cependant, une fonction « muet » sera toujours inadéquate pour les plates-formes lourdes d’images ou de vidéos telles qu’Instagram, TikTok ou Pinterest. Pour ces plates-formes en particulier, les utilisateurs devraient bénéficier d’un contrôle accru sur les catégories de contenu qui leur sont présentées. La page des préférences publicitaires de Facebook a montré que les plateformes collectent et catégorisent déjà les préférences de contenu des utilisateurs. Les utilisateurs devraient avoir la possibilité d’éliminer les catégories de contenu, allant au-delà des troubles de l’alimentation et de l’automutilation, vers le contenu de jeu pour récupérer les toxicomanes et le contenu de la grossesse pour les mères qui ont fait une fausse couche. Cela pourrait supprimer même le contenu non balisé, car ceux-ci seraient souvent classés avec d’autres publications sur les régimes ou les exercices.

Avec les technologies existantes, les suppressions catégorielles seront probablement imprécises et trop larges. Supprimer le contenu des aliments malsains signifierait supprimer la plupart des contenus alimentaires, car les logiciels d’intelligence artificielle ne seraient pas en mesure de faire la distinction. Quoi qu’il en soit, cela pourrait toujours être utile, en particulier pour les utilisateurs en récupération dont la seule autre alternative serait de risquer d’être exposé à un tel contenu ou de quitter complètement les réseaux sociaux. À long terme, les plates-formes pourraient également explorer des alternatives permettant aux utilisateurs de choisir les catégories spécifiques de contenu qu’ils souhaiteraient réintégrer ou éviter complètement. Les approches à cet égard différeraient en fonction de la manière dont les algorithmes de la plate-forme hiérarchisent et recommandent le contenu.

Au lieu de simplement créer un lien vers la page Web de la NEDA, les entreprises de médias sociaux devraient adopter une approche plus proactive et plus impliquée. Les théories sur l’inoculation ont montré que les gens deviennent plus résilients à la désinformation politique lorsqu’on leur a dit de s’y préparer. De même, les entreprises de médias sociaux pourraient veiller à ce que leurs utilisateurs soient mieux préparés aux récits nuisibles entourant la culture de l’alimentation et les troubles de l’alimentation en défiant de manière préventive les récits nuisibles. Cela pourrait impliquer de travailler avec NEDA et d’autres experts de la santé pour créer des graphiques informatifs, de courtes vidéos ou des ressources de questions-réponses faciles à lire. Ces ressources pourraient ensuite être intégrées dans les flux de médias sociaux des utilisateurs à haut risque en tant que publications autonomes. Les plateformes pourraient également créer un centre de ressources sur les troubles de l’alimentation pour les utilisateurs, similaire au centre d’information sur le vote sur les flux Facebook pendant les élections de 2020. Au lieu de simplement les renvoyer à un numéro de téléphone où ils pourraient rechercher des informations supplémentaires, les plateformes pourraient compiler des ressources utiles sur lesquelles les utilisateurs pourraient cliquer pour se renseigner.

Des changements complets dans la conception algorithmique, les mécanismes de contrôle des données et le contrôle des utilisateurs peuvent faire des médias sociaux un espace plus sûr pour tous les utilisateurs. Mais en fin de compte, il est important de reconnaître que cela renvoie à un problème très humain : une norme culturelle de la honte des graisses et de la culture diététique, l’idée scientifiquement erronée selon laquelle plus maigre est supérieur. Tout cela devra être accompagné d’un mouvement plus large pour la positivité corporelle, dans l’éducation, les médias et au-delà, en comprenant que tous les corps sont bons et dignes d’amour.


Alphabet et Meta sont des donateurs généraux et sans restriction de la Brookings Institution. Les découvertes, interprétations et conclusions publiées dans cet article sont uniquement celles de l’auteur et ne sont influencées par aucun don.

« Social Media Surveillance » par Khahn Tran est sous licence CC PAR 4.0

Vous pourriez également aimer...