Comment la National Science Foundation adopte l’équité dans l’IA

La plupart du discours public autour de la politique en matière d’intelligence artificielle (IA) se concentre sur l’une des deux perspectives suivantes : comment le gouvernement peut soutenir l’innovation en matière d’IA et comment le gouvernement peut dissuader son utilisation nocive ou négligente. Pourtant, le gouvernement peut également avoir un rôle à jouer pour faciliter l’utilisation bénéfique de l’IA – dans ce créneau, la National Science Foundation (NSF) a trouvé un moyen de contribuer. Grâce à un programme de subventions appelé Fairness in Artificial Intelligence (FAI), la NSF fournit un financement de 20 millions de dollars aux chercheurs travaillant sur des problèmes éthiques difficiles en IA. Le programme, une collaboration avec Amazon, a maintenant financé 21 projets au cours de ses deux premières années, avec un appel à candidatures ouvert au cours de sa troisième et dernière année. Il s’agit d’une entreprise importante, qui renforce une tendance de soutien fédéral à l’avancement responsable de la technologie, et la NSF devrait poursuivre cette importante ligne de financement pour l’IA éthique.

Qu’est-ce que le programme Fairness in AI de la NSF ?

Le programme FAI est un investissement dans ce que la NSF appelle la « recherche inspirée par l’utilisation », où les scientifiques tentent d’aborder des questions fondamentales inspirées par les défis du monde réel et les limitations scientifiques pressantes. La recherche inspirée par l’utilisation est une alternative à la « recherche fondamentale » traditionnelle, qui tente de faire des progrès fondamentaux dans la compréhension scientifique sans nécessairement un objectif pratique spécifique. La NSF est mieux connue pour la recherche fondamentale en informatique, où la NSF fournit 87% de tous les financements fédéraux de la recherche fondamentale. Par conséquent, le programme FAI représente une part relativement faible de l’investissement total de la NSF dans l’IA, environ 3,3 millions de dollars par an, étant donné qu’Amazon couvre la moitié du coût. Au total, la NSF a demandé 868 millions de dollars de dépenses en IA, soit environ 10 % de son budget total pour 2021, et le Congrès a approuvé chaque centime. Notamment, il s’agit d’une définition large des dépenses en IA qui inclut de nombreuses applications de l’IA à d’autres domaines, plutôt que des avancées fondamentales dans l’IA elle-même, qui est probablement plus proche de 100 ou 150 millions de dollars, selon une estimation approximative.

Le programme FAI est spécifiquement orienté vers le principe éthique de « l’équité » – plus sur ce choix dans un instant. Bien que cela puisse sembler inhabituel, le programme est une continuation de recherches antérieures financées par le gouvernement sur les implications morales et les conséquences de la technologie. À partir des années 1970, le gouvernement fédéral a commencé à façonner activement la recherche en bioéthique en réponse au tollé général suite au rapport de l’AP sur l’étude Tuskegee Syphilis. Bien que les efforts initiaux aient pu être réactionnaires, ils ont précipité des décennies de travail pour améliorer les sciences biomédicales. Lancé parallèlement au projet du génome humain en 1990, il existait une vaste ligne de recherche orientée vers les implications éthiques, juridiques et sociales de la génomique. À partir de 2018, la NSF a financé 21 subventions exploratoires sur l’impact de l’IA sur la société, précurseur du programme FAI actuel. Aujourd’hui, il est possible de tracer une ligne de tendance approximative à travers ces efforts, dans lesquels le gouvernement se préoccupe davantage d’abord de la science pure, puis de l’éthique du processus scientifique, et maintenant des résultats éthiques de la science elle-même. Il s’agit d’une évolution positive qui mérite d’être encouragée.

Un accent sur l’équité

La NSF a pris la décision consciente de se concentrer sur l’équité plutôt que sur d’autres thèmes courants comme la « fiabilité » ou la « conception centrée sur l’humain ». Le Dr Erwin Gianchandani, directeur adjoint adjoint de la NSF, a décrit quatre catégories de problèmes dans le domaine de la FAI, et celles-ci peuvent être facilement liées aux défis actuels et permanents auxquels l’IA est confrontée. La première catégorie se concentre sur les nombreuses définitions mathématiques contradictoires de l’équité et le manque de clarté autour de laquelle sont appropriées dans quels contextes. Un projet financé a étudié les perceptions humaines des mesures d’équité les plus appropriées pour un algorithme dans le contexte des décisions de mise en liberté sous caution – la même application du tristement célèbre algorithme COMPAS. L’étude a révélé que les répondants à l’enquête préféraient légèrement un algorithme qui avait un taux constant de faux positifs (combien de personnes ont été inutilement gardées en prison dans l’attente du procès) entre deux groupes raciaux, plutôt qu’un algorithme qui était tout aussi précis pour les deux groupes raciaux. Notamment, il s’agit de la qualité opposée de l’algorithme COMPAS, qui était juste dans sa précision totale, mais a entraîné plus de faux positifs pour les accusés noirs.

La deuxième catégorie, écrit Gianchandani, consiste à « comprendre comment un système d’IA produit un résultat donné ». La NSF considère cela comme directement lié à l’équité, car donner à un utilisateur final plus d’informations sur la décision d’une IA lui permet de contester cette décision. C’est un point important – par défaut, les systèmes d’IA masquent la nature d’un processus de prise de décision et rendent plus difficile pour un individu d’interroger le processus. Peut-être que le projet le plus novateur financé par la NSF FAI tente de tester la viabilité des audits de crowdsourcing des systèmes d’IA. Dans un audit participatif, de nombreuses personnes peuvent s’inscrire à un outil, par exemple un site Web ou une extension de navigateur Web, qui regroupe des données sur la façon dont ces personnes ont été traitées par un système d’IA en ligne. En agrégeant ces données, la foule peut déterminer si l’algorithme est discriminatoire, ce qui serait fonctionnellement impossible pour tout utilisateur individuel.

La troisième catégorie cherche à utiliser l’IA pour rendre les systèmes existants plus justes, une tâche particulièrement importante alors que les gouvernements du monde entier continuent de se demander si et comment intégrer les systèmes d’IA dans les services publics. Un projet de chercheurs de l’Université de New York cherche, en partie, à relever le défi de l’équité lorsqu’un algorithme est utilisé à l’appui d’un décideur humain. Ceci est peut-être inspiré par une évaluation récente de juges utilisant des évaluations algorithmiques des risques en Virginie, qui a conclu que l’algorithme n’a pas réussi à améliorer la sécurité publique et a eu pour effet involontaire d’augmenter l’incarcération des jeunes accusés. Les chercheurs de la NYU ont un défi similaire en tête : développer un outil pour identifier et réduire les biais systémiques dans les décisions de poursuites prises par les procureurs de district.

La quatrième catégorie est peut-être la plus intuitive, car elle vise à éliminer les biais des systèmes d’IA ou, à défaut, à s’assurer que les systèmes d’IA fonctionnent de manière équivalente pour tout le monde. Un projet cherche à créer des mesures d’évaluation communes pour l’IA de traitement du langage naturel, afin que leur efficacité puisse être comparée dans de nombreuses langues différentes, aidant à surmonter une focalisation myope sur l’anglais. D’autres projets examinent l’équité dans des méthodes moins étudiées, comme les algorithmes de réseau, et encore plus cherchent à s’améliorer dans des applications spécifiques, telles que les logiciels médicaux et l’embauche algorithmique. Ces deux derniers sont particulièrement remarquables, car les preuves publiques dominantes suggèrent que le biais algorithmique dans l’approvisionnement et l’embauche des soins de santé est répandu.

Les compromis du partenariat d’entreprise

Les critiques peuvent déplorer que Big Tech, qui joue un rôle de premier plan dans la recherche sur l’IA, soit présent même dans ce programme fédéral – Amazon correspond au soutien de la NSF, de sorte que chaque organisation paie environ 10 millions de dollars. Pourtant, il n’y a aucune raison de croire que l’indépendance de la NSF a été compromise. Amazon ne joue aucun rôle dans la sélection des demandes de subvention, et aucun des bénéficiaires contactés n’a eu de préoccupations concernant le processus de sélection des subventions. Les responsables de la NSF ont également noté que toute collaboration avec Amazon (telle que la réception d’une assistance technique) est entièrement facultative. Bien sûr, cela vaut la peine de considérer ce qu’Amazon a à gagner de ce partenariat. À la lecture de l’annonce de la FAI, il ressort que le programme cherche à contribuer à « des systèmes d’IA dignes de confiance qui sont facilement acceptés » et que « les projets permettront une acceptation élargie des systèmes d’IA ». Ce n’est un secret pour personne que la génération actuelle de grandes entreprises technologiques bénéficierait énormément d’une confiance accrue du public dans l’IA. Pourtant, le financement des entreprises vers une recherche véritablement indépendante est bon et irréprochable, en particulier par rapport à d’autres options telles que les entreprises qui financent directement la recherche universitaire.

Au-delà de la contribution financière, il peut y avoir d’autres avantages sociétaux du partenariat. D’une part, Amazon et d’autres entreprises technologiques pourraient accorder plus d’attention aux résultats de la recherche. Pour une entreprise comme Amazon, cela peut signifier incorporer les résultats dans ses propres algorithmes ou dans les systèmes d’IA qu’elle vend via Amazon Web Services (AWS). L’adoption dans les services cloud AWS peut être particulièrement impactante, car des milliers de data scientists et d’entreprises utilisent ces services pour l’IA. À titre d’exemple, le professeur Sandra Wachter de l’Oxford Internet Institute a été ravi d’apprendre qu’une mesure d’équité qu’elle et ses co-auteurs avaient préconisée avait été intégrée à un service cloud AWS, le rendant beaucoup plus accessible aux praticiens de la science des données. De manière générale, le fait de disposer d’un ensemble étendu de fonctionnalités faciles à utiliser pour l’équité de l’IA rend plus probable que les scientifiques des données exploreront et utiliseront ces outils.

La valeur de FAI

Dans sa totalité, FAI est une petite mais puissante entreprise de recherche. Les innombrables défis posés par l’IA sont tous améliorés avec plus de connaissances et des méthodes plus responsables entraînées par cette recherche indépendante. Bien qu’il y ait une énorme quantité de financement d’entreprise pour la recherche sur l’IA, elle n’est ni indépendante ni principalement destinée à l’équité, et peut exclure entièrement certains sujets FAI (par exemple, l’équité dans l’utilisation de l’IA par le gouvernement). Bien qu’il s’agisse de la dernière année du programme FAI, l’un des directeurs de programme de la NSF FAI, le Dr Todd Leen, a souligné lorsqu’il a été contacté pour cet article que « la NSF ne s’éloigne pas de ces questions de recherche importantes » et que la mission de intégré à la direction générale de l’informatique. Cette absorption peut s’accompagner d’inconvénients mineurs, par exemple l’absence de ligne budgétaire clairement spécifiée et l’absence de rapports consolidés sur les projets de recherche financés. La NSF devrait envisager de suivre ces investissements et de communiquer clairement à la communauté des chercheurs que l’équité de l’IA est une priorité permanente de la NSF.

L’administration Biden pourrait également demander spécifiquement un financement supplémentaire de la NSF pour l’équité et l’IA. Pour une fois, ce financement ne serait pas difficile à vendre aux décideurs politiques. Le Congrès a financé la totalité de la demande de budget de 868 millions de dollars de la NSF pour l’IA en 2021, et le président Biden a manifesté un intérêt clair pour l’expansion du financement de la science ; son projet de budget prévoit une augmentation de 20 % du financement de la NSF pour l’exercice 2022, et l’administration a lancé un groupe de travail national sur la recherche en IA coprésidé par nul autre que le Dr Erwin Gianchandani. Avec tout cet intérêt, la mise en signet de 5 à 10 millions de dollars par an explicitement pour l’avancement de l’équité dans l’IA est clairement possible, et certainement utile.


Amazon est un donateur général et sans restriction de la Brookings Institution. Les résultats, interprétations et conclusions publiés dans cet article sont uniquement ceux de l’auteur et ne sont influencés par aucun don.

Vous pourriez également aimer...