Si ce n’est pas des éthiciens de l’IA comme Timnit Gebru, qui tiendra la Big Tech responsable?

Jusqu’à la semaine dernière, Timnit Gebru codirigeait l’équipe d’intelligence artificielle éthique (IA) chez Google. La recherche révolutionnaire du Dr Gebru, avec la fondatrice d’Algorithmic Justice League, Joy Buolamwini, a révélé comment les systèmes d’IA présentent des préjugés, en particulier envers les personnes de couleur. Leur travail incité moratoires sur les logiciels de reconnaissance faciale, c’est pourquoi la position de Gebru chez Google a conféré de la crédibilité aux efforts de l’entreprise pour intégrer de manière responsable l’IA dans une large gamme de ses produits.

Maintenant, le monde de la technologie est en train de s’agiter à la suite de son licenciement de Google. Alors que le vice-président senior de Google, Jeff Dean, a déclaré que Gebru avait démissionné, cela est contesté par Gebru et autres. Il est clair que, suite à un désaccord sur un article de recherche sur l’IA et à un e-mail frustré de Gebru concernant des efforts de diversité inefficaces, la direction de Google n’a pas hésité à expulser Gebru.

Timnit Gebru est une femme noire avec une histoire distinguée dans la diversification de la recherche sur l’IA, et les actions de Google soulèvent des questions difficiles et importantes sur les initiatives de diversité de l’entreprise. Pourtant, il existe également de graves problèmes de responsabilité: qui devrait superviser le déploiement de systèmes d’intelligence artificielle avec des implications sociétales majeures? Étant donné que ces systèmes sont généralement construits avec des données propriétaires et ne sont souvent accessibles qu’aux employés de grandes entreprises technologiques, les éthiciens de l’IA de ces entreprises représentent une clé – parfois la seule – pour vérifier s’ils sont déployés de manière responsable. Si un chercheur comme Gebru, leader incontesté dans le domaine de l’éthique de l’IA, ne peut pas effectuer ce travail au sein d’une entreprise comme Google, l’un des principaux développeurs américains d’IA, alors qui le peut?

Améliorer l’IA de l’intérieur

La recherche éthique sur l’IA est extrêmement importante. L’IA étant déployée dans un large éventail de systèmes, tant dans le secteur privé que dans le gouvernement, la recherche éthique sur l’IA peut contribuer à rendre ces systèmes plus sûrs, équitables et transparents. Une telle recherche peut empêcher l’utilisation d’une application problématique, comme lorsqu’Amazon a abandonné un outil de recrutement d’IA incapable de remédier à un préjugé contre les femmes. L’article au cœur du différend entre Gebru et Google discute des préoccupations relatives aux conséquences environnementales des grands modèles linguistiques, à leurs nouveaux biais et aux défis d’interprétabilité, et aux limites structurelles des grands modèles d’IA qui tentent de comprendre le langage. Ce sont des problèmes significatifs pour ces modèles linguistiques et cet article ne serait pas le premier à émettre de telles critiques.

Lors de l’examen des systèmes d’IA, la recherche au sein des entreprises technologiques a le potentiel d’être plus précise, car elle peut être effectuée par des chercheurs qui ont accès aux données de l’entreprise et s’y familiarisent. Comme ce fut le cas avec Gebru et l’article de ses co-auteurs, les chercheurs d’entreprise sont également plus susceptibles d’avoir accès à des modèles d’IA de pointe, qui peuvent coûter des millions de dollars à former et sont donc prohibitifs pour de nombreux chercheurs externes.

En effet, concevoir des recherches pour étudier les plates-formes Internet de l’extérieur est notoirement difficile. Prenons par exemple le potentiel de YouTube pour radicaliser les utilisateurs en recommandant un contenu politique plus extrême. Un rapport récent examinant le massacre de 2019 à Christchurch, en Nouvelle-Zélande, a cité la consommation par le tireur de contenu d’extrême droite sur YouTube comme un facteur contribuant à sa radicalisation. Pourtant, des examens plus larges de la radicalisation sur la plateforme échouent en raison d’un manque de données. Des études universitaires ont tenté de répondre à des questions précises, comme celle de savoir si YouTube recommande généralement un contenu politique plus extrême. Mais sans accès aux données de YouTube, ces études sont incapables de rendre compte des décisions algorithmiques basées sur l’historique de navigation personnel ou d’observer si les gens suivent souvent les recommandations de radicalisation.

De plus, les chercheurs extérieurs n’ont aucune capacité à tester des contrefactuels, c’est-à-dire ce qui pourrait se passer si l’algorithme était modifié pour atténuer les problèmes. Ce sont des questions difficiles, même avec les données de YouTube, et de l’extérieur, « il n’y a pas de bon moyen pour les chercheurs externes d’étudier de manière quantitative la radicalisation », fait valoir Arvind Narayanan, professeur d’informatique à Princeton.

À la suite de ces limitations, un modèle cohérent émerge. Des chercheurs externes collectent les données qu’ils peuvent et sondent les systèmes d’IA à distance. Lorsque ces études critiquent ces systèmes, les entreprises technologiques contestent généralement les résultats. Cela inclut généralement la critique selon laquelle la méthodologie de l’étude était imparfaite – comme l’a soutenu YouTube en réponse à l’exemple ci-dessus concernant la recommandation d’un contenu politique extrême. Ces déclarations tendent à ne pas mentionner que l’amélioration de l’étude serait impossible sans la collaboration de l’entreprise.

En ce qui concerne la recommandation de contenu politique extrême, YouTube a par la suite modifié son algorithme en augmentant les recommandations à des sources plus fiables. Mais il est peu probable que le public comprenne jamais comment cette décision, qui détermine 70% de toutes les vidéos regardées sur YouTube, a été prise. Cela ne veut pas dire que les entreprises induisent toujours le public en erreur. Parfois, les chercheurs universitaires peuvent se tromper et écarter les critiques.

Un tel résultat est plus souvent l’exception que la règle – les critiques des chercheurs extérieurs sont généralement écartées par les entreprises technologiques. C’est pourquoi la présence d’équipes de recherche éthique au sein des grandes entreprises technologiques, avec à la fois des autorisations de base de données et un accès à la C-suite, est si importante. Dans un monde idéal, les équipes d’IA éthiques pourraient acquérir de nouvelles connaissances et agir comme un mécanisme de responsabilité d’entreprise. Malheureusement, comme l’a démontré le licenciement de Gebru, cela n’est guère garanti. Des événements comme celui-ci vont sûrement tempérer les esprits et tempérer les actions d’autres éthiciens de l’IA.

Big Tech est dépourvu de responsabilité

La marginalisation des équipes d’éthique internes et les luttes des chercheurs externes pour examiner les systèmes d’IA sont particulièrement troublantes, car rien d’autre ne rend les Big Tech responsables. Les boycotts des consommateurs n’ont pas réussi à changer les pratiques commerciales des entreprises: alors que la campagne #DeleteUber de 2017 a conduit des centaines de milliers de personnes à supprimer l’application, cela ne représentait qu’une petite fraction des dizaines de millions d’utilisateurs mensuels d’Uber. De plus, comme les entreprises Big Tech sont omniprésentes sur Internet, il est fonctionnellement impossible de les éliminer toutes ensemble. Même les annonceurs ont du mal à avoir un impact. Le boycott de Facebook par les annonceurs #StopHateForProfit, a gagné le soutien de plus de 1000 entreprises, et pourtant Facebook a signalé une croissance des revenus publicitaires pendant le moratoire d’un mois.

Le journalisme innovant peut avoir un impact, par exemple lorsque ProPublica a utilisé la propre plate-forme de ciblage publicitaire de Facebook pour montrer qu’elle pouvait facilement enfreindre la loi fédérale sur le logement équitable. Cela a conduit à des lettres du Congrès et à une série de poursuites judiciaires qui ont résolu le problème, mais il a fallu des années à un Facebook récalcitrant pour apporter les changements nécessaires. Plus généralement, les rapports techniques entraînent une brève explosion de pannes sans améliorations durables à long terme. Il ne s’agit pas d’une mise en accusation contre le journalisme, mais du manque d’action du gouvernement fédéral.

Il y a des signes que ce manque de surveillance gouvernementale est en train de changer. Un regain d’intérêt pour l’application des lois antitrust a déclenché un récent procès de la Federal Trade Commission et de quarante États accusant Facebook de comportement anticoncurrentiel et un autre du ministère de la Justice visant Google. Espérons que l’administration Biden jouera également un rôle plus actif, en aidant les agences à appliquer les lois existantes qui devraient s’appliquer aux entreprises technologiques.

Ces efforts sont significatifs mais n’ont pas modifié structurellement l’équation. La Big Tech reste bien ancrée et, au mieux, ne réagit que modérément à la volonté du public. C’est pourquoi les développeurs de base et les scientifiques des données des entreprises technologiques sont si importants. Ils sont hautement qualifiés, relativement difficiles à remplacer et essentiels aux fonctions de base de l’entreprise. Jusqu’à présent, ils ne se sont pas systématiquement retournés contre leurs employeurs. Cela est mieux illustré par la façon dont Facebook et Uber, parmi les grandes entreprises technologiques les plus critiquées, sont toujours en mesure d’embaucher et de retenir des talents.

Néanmoins, les grandes entreprises technologiques ont clairement peur de la possibilité d’une révolte de leurs ingénieurs. Cette peur explique le modèle plus large d’hostilité de Google envers l’activisme et l’organisation des employés. Une récente plainte fédérale reproche à Google d’avoir licencié illégalement deux employés impliqués dans la syndicalisation et d’espionnage d’autres personnes. Google a également été critiqué pour avoir exercé des représailles contre les organisateurs d’un débrayage de masse pour la mauvaise gestion des allégations de harcèlement sexuel par l’entreprise. L’année dernière, Google a modifié les directives internes pour minimiser les conversations non liées au travail qui étaient autrefois une caractéristique de la philosophie de l’entreprise.

Les limites de l’influence extérieure et de la maîtrise de la dissidence interne sont le cadre du portrait du renvoi de Timnit Gebru. Gebru a annoncé cela elle-même, écrivant dans l’e-mail qui critiquait les efforts de diversité de Google que « si vous souhaitez changer les choses, je suggère de vous concentrer sur la responsabilité du leadership. »

C’est un bon conseil et quelqu’un doit le faire. Mais si ce n’est pas des éthiciens de l’IA comme Gebru, alors qui?


Facebook et Google sont des donateurs généraux et sans restriction de la Brookings Institution. Les résultats, interprétations et conclusions de cet article sont uniquement ceux de l’auteur et ne sont influencés par aucun don.

Vous pourriez également aimer...