Nous avons besoin de plus de biais dans l’intelligence artificielle

Ce qui rend une vision plus désirable qu’une autre n’est pas sa neutralité, mais si elle peut mieux servir ses objectifs dans le contexte de la poursuite de ces objectifs.

Par:
Mario Mariniello

Date: 21 avril 2021
Sujet: Macroéconomie et gouvernance européennes

Cet article d’opinion est à paraître dans Il Sole 24 Ore.

logo du journal italien Il Sole 24 Ore

L’illusion d’optique Muller-Lyer se compose de deux lignes de longueur égale qui ne diffèrent que par la direction des pointes de flèches à chaque extrémité. Pourtant, pour la plupart des observateurs, la ligne avec des pointes de flèches pointant vers l’extérieur semble plus longue que l’autre. Si vous avez grandi dans et parmi des bâtiments avec des murs droits et des angles de 90 degrés, vous avez appris à percevoir les lignes selon des motifs géométriques. Votre vision des lignes Muller-Lyer est biaisée.

Les développeurs d’intelligence artificielle tombent parfois dans des pièges similaires. Ils programment des applications qui changent la vie, dans lesquelles ils projettent des biais. Les algorithmes ont conduit les juges à être plus sévères envers les délinquants noirs lorsqu’ils évaluent la probabilité que les accusés commettent à nouveau le même crime. Les candidatures d’apprentissage automatique favorisent les candidats masculins par rapport aux femmes (Amazon a abandonné son outil de recrutement après que le système a appris à attribuer un score inférieur aux candidatures mentionnant le mot «  femme  »). Les programmes de traduction automatique reproduisent les stéréotypes de genre. Par exemple, pour traduire une langue sans pronoms sexués (comme le finnois) en anglais, l’algorithme pourrait suggérer d’utiliser «il» lorsque l’action est «travailler» et «elle» lorsque l’action est «laver le linge».

Nous devrions être très préoccupés par les préjugés intégrés à l’intelligence artificielle. Les efforts des pouvoirs publics pour le freiner, comme le règlement proposé par la Commission européenne dans ‘la loi sur l’intelligence artificielle‘, sont les bienvenus.

Souvent, cependant, les biais ne sont pas seulement intégrés dans la conception de l’algorithme. Ils lui sont également extérieurs, provenant de préjugés sociétaux. L’outil de recrutement d’Amazon a hérité du biais d’un ensemble de données couvrant une décennie au cours de laquelle la plupart des demandes d’emploi provenaient d’hommes (un symptôme de la forte asymétrie du pouvoir de genre dans le secteur technologique). De même, les applications de traduction automatisée apprennent les stéréotypes de genre à partir des milliers de livres utilisés pour les former. La discrimination à l’égard des femmes et des minorités est bien reflétée dans la littérature.

Peu importe notre objectif, la simple décision d’adopter des solutions d’intelligence artificielle a de profondes implications. Cette décision est intrinsèquement subjective et s’accompagne donc d’une certaine responsabilité politique, qui va au-delà de la simple réglementation de l’utilisation de l’intelligence artificielle. Les algorithmes apprennent à être aussi discriminatoires que la société qu’ils observent. Ils suggèrent ensuite des décisions qui sont intrinsèquement discriminatoires et contribuent ainsi à exacerber la discrimination au sein de la société. La politique peut briser ce cercle vicieux.

Si la politique publique vise à améliorer la prise de décision et à construire une société plus inclusive, elle devrait aborder explicitement la question du rôle de l’intelligence artificielle dans la réalisation de l’objectif final. Si l’intelligence artificielle amplifie les préjugés de la société, la politique devra peut-être intervenir, soit en interdisant son utilisation, soit en intégrant des biais de contrepoids. Par exemple, les algorithmes qui classent automatiquement le contenu subjectif dans les chats en ligne pourraient être contraints d’attacher des poids inférieurs aux commentaires discriminatoires. Ceci, en effet, déformerait les sentiments d’une communauté: peut-être à l’image collective d’une communauté peuplée d’hommes, les femmes ne sont pas associées au travail intellectuel. Mais l’algorithme donnerait alors une représentation du monde plus proche de ce que nous voudrions qu’il soit. Dans la recherche médicale, les biais souhaitables pourraient être utilisés pour corriger les déséquilibres entre les sexes. Les maladies coronariennes sont une des principales causes de décès chez les femmes, mais les hommes sont surreprésentés dans les essais cliniques: l’intelligence artificielle pourrait favoriser le recrutement des femmes par rapport à celui des hommes.

Cela ne signifie pas que les politiciens devraient systématiquement interférer avec les marchés technologiques, en microgérant le développement et l’adoption des technologies. Mais une vision politique globale est nécessaire pour définir la direction du voyage, si l’objectif est de vivre dans un monde meilleur.

Nous appelons souvent déjà à l’introduction de biais souhaitables par l’action positive. Les quotas de genre abordent la discrimination à l’égard des femmes lors de la sélection aux postes de pouvoir. Les quotas ne corrigent cependant pas simplement les biais. Ils sont également une déclaration politique: l’égalité des sexes est un outil pour changer structurellement le système. La prise de décision par les hommes dans les entreprises ou les institutions publiques pourrait se perpétuer indéfiniment, les responsables continuant de sélectionner ceux qui correspondent à leur vision du monde axée sur les hommes. Imposer des quotas équivaut à introduire un biais contre cela; cela signifie rejeter une façon de faire les choses et au contraire soutenir une vision différente qui vise à corriger la marginalisation historique.

De même, la discussion sur la manière d’améliorer l’utilisation de l’intelligence artificielle en Europe ne doit pas être séparée de ses implications structurelles.

Dans les années 1960, les anthropologues ont réalisé que les membres des tribus zoulou en Afrique du Sud ne tombaient pas dans l’illusion Muller-Lyer. Contrairement à leurs pairs des sociétés occidentales, ils ont immédiatement vu que les lignes étaient de la même longueur. Leur interprétation des informations fournies était différente. Les zoulous vivent dans des huttes arrondies dans un environnement où les angles vifs des bâtiments européens sont absents. Leur vision géométrique est différente. Bien sûr, un Zoulou pourrait se trouver moins à l’aise pour estimer les distances dans une ville européenne.

En fin de compte, ce qui rend une vision plus désirable qu’une autre n’est pas sa neutralité, mais si elle peut mieux servir ses objectifs dans le contexte de la poursuite de ces objectifs.

Ceci a été réalisé dans le cadre du projet «Avenir du travail et croissance inclusive en Europe», avec le soutien financier du Mastercard Center for Inclusive Growth.


Republication et référencement

Bruegel se considère comme un bien public et ne prend aucun point de vue institutionnel.

En raison des accords de droits d’auteur, nous vous demandons de bien vouloir envoyer par e-mail une demande de republication des opinions qui ont paru imprimées à [email protected].

Vous pourriez également aimer...