Opportunités et angles morts dans le plan de la Maison Blanche pour une déclaration des droits de l’IA

En octobre 2022, le Bureau de la politique scientifique et technologique de la Maison Blanche (OSTP) a publié un Plan directeur pour une déclaration des droits de l’IA (« Plan directeur »), qui partageait une feuille de route non contraignante pour l’utilisation responsable de l’intelligence artificielle (IA). Le document complet a identifié cinq principes fondamentaux pour guider et régir le développement et la mise en œuvre efficaces des systèmes d’IA, en accordant une attention particulière aux conséquences involontaires des violations des droits civils et humains. Bien que l’identification et l’atténuation des risques consécutifs intentionnels et imprévus de l’IA soient largement connues depuis un certain temps, la manière dont le Plan directeur facilitera la réprimande de ces griefs est encore indéterminée. En outre, des questions subsistent quant à savoir si le document non contraignant incitera le Congrès à prendre les mesures nécessaires pour régir cet espace non réglementé.

Le Brookings Center for Technology Innovation a organisé une conversation avec des experts de l’OSTP, des groupes de réflexion et des organisations de justice sociale le 5 décembre 2022, au cours de laquelle ils ont déballé les aspects clés du Plan directeur tout en débattant des limites potentielles et, dans certains cas, des angles morts qui n’a peut-être pas été pris en compte dans son élaboration. On s’est demandé si les dommages étaient définis de manière trop large et si les agences fédérales avaient les ressources nécessaires pour adhérer aux pratiques et procédures responsables concernant l’approvisionnement, l’utilisation et les audits cohérents de l’IA, comme indiqué dans le Plan directeur.

En termes de progrès avant et après la publication du Blueprint, au moins cinq agences fédérales ont adopté des lignes directrices pour leur propre utilisation responsable des systèmes automatisés. Les principes éthiques pour l’intelligence artificielle du ministère de la Défense (DOD) et le plan d’action sur l’intelligence artificielle de l’Agence américaine pour le développement international ont tous deux mis en œuvre des directives concernant l’utilisation de l’IA par le gouvernement. La Commission pour l’égalité des chances en matière d’emploi (EEOC) a également lancé sa propre initiative d’IA et d’équité algorithmique dans le cadre de son partenariat avec le ministère du Travail pour « réinventer les pratiques d’embauche et de recrutement ». En outre, l’EEOC collabore avec le ministère de la Justice pour publier des conseils sur la manière dont l’utilisation de l’IA dans les décisions d’emploi peut être discriminatoire à l’égard des personnes handicapées.

Quelques agences fédérales, dont le DOD, le ministère de l’Énergie, le ministère des Anciens Combattants et le ministère de la Santé et des Services sociaux, ont chacune établi leurs propres centres ou bureaux pour mettre en œuvre ces directives. Au moins une douzaine d’agences ont publié une sorte de directives contraignantes pour l’utilisation de systèmes automatisés dans les industries sous leur juridiction, telles que les directives commerciales de la Federal Trade Commission sur l’utilisation de l’intelligence artificielle et des algorithmes et les principes de la Food and Drug Administration pour un bon apprentissage automatique. Pratique pour le développement de dispositifs médicaux. Cependant, le détail et la portée de l’adhésion totale des agences fédérales à ces activités varient encore en termes de calendrier et de produits livrables. Alors que les entités mentionnées travaillent à une utilisation responsable de l’IA, d’autres agences fédérales, y compris la Consumer Product Safety Commission, ont publié un rapport avec un cadre proposé pour évaluer les dommages potentiels de l’IA.

Une partie de ces divers degrés de progrès au sein du gouvernement fédéral sont dus au nombre d’employés affectés qui peuvent mettre en œuvre efficacement et rapidement ce nouveau cadre fondé sur les droits. Un autre aspect connexe est l’état d’avancement de la mise en œuvre des directives précédentes concernant l’IA des dirigeants de l’OSTP de l’administration Trump qui encourageaient des alignements similaires autour d’une utilisation responsable.

Le Blueprint s’appuie également sur une certaine cohérence dans l’interprétabilité et la protection des droits civils dans les décisions automatisées, en particulier dans les domaines du prêt, du logement et de l’embauche. Pourtant, la mesure dans laquelle les lois sur les droits civils sont largement connues dans les domaines numériques est encore inconnue, en particulier compte tenu de l’opacité d’Internet et des applications algorithmiques. Étant donné que les facteurs affectant le fonctionnement des modèles algorithmiques sont souvent cachés aux consommateurs, les gens ne savent généralement pas comment ils fonctionnent et les menaces potentielles. Des études récentes ont montré que, bien que davantage de connaissances algorithmiques soient nécessaires, en particulier en ce qui concerne leur utilisation sur les réseaux sociaux ou les nouvelles plateformes, les individus ont souvent peu d’idées sur le fonctionnement de ces algorithmes ou sur les données qu’ils utilisent. Bien que l’appel à une confidentialité et une sécurité accrues des données fasse également partie intégrante du Plan directeur, il reste encore du travail à faire pour déterminer comment appliquer explicitement les lois et les protections en matière de droits civils en cas de malversation en ligne.

Enfin, le Plan directeur actuel se tourne vers le secteur privé pour la gestion de l’autorégulation, en particulier pour régir et produire des produits et services à partir d’une approche fondée sur les droits des consommateurs. Cependant, cette attente peut être trop ambitieuse pour les entreprises qui profitent généralement de l’opacité de l’IA, y compris les données inférentielles collectées auprès des utilisateurs individuels en l’absence d’informations démographiques. De même, le Blueprint ne fournit pas de lignes directrices obligatoires et exécutoires, et l’absence d’un régime d’application ou d’un organe directeur central rend l’autorégulation insuffisante pour se prémunir contre les dommages potentiels.

Peut-être que la plus grande limitation est le fait que le Blueprint exclut l’application de la loi

L’utilisation de l’IA dans les forces de l’ordre, en particulier la reconnaissance faciale, a soulevé de nombreuses considérations juridiques et éthiques et créé de nombreux risques. L’utilisation de l’IA dans les forces de l’ordre peut renforcer les inégalités et avoir un impact disproportionné sur les personnes de couleur, entraînant de fausses arrestations et détentions. Les développeurs du Blueprint ont raté une occasion majeure de mettre en œuvre un cadre basé sur les droits pour la prise de décision automatisée et de faire de grands progrès dans l’IA et la justice pénale. Pour l’instant, le Blueprint a évité un examen détaillé de ces fronts en éliminant les forces de l’ordre, même parmi les agences fédérales qui utilisent ces technologies, notamment la police du Capitole, la sécurité des aéroports, les agents des douanes et de la protection des frontières. L’exclusion des forces de l’ordre peut continuer la sursurveillance de certaines populations, communautés et individus sous couvert de sécurité publique et nationale et ne réduira pas nécessairement l’histoire et la manifestation de la discrimination endémique contre les personnes de couleur et les immigrants. Si l’application de la loi avait été incluse dans les dispositions et les orientations du Plan directeur, elle aurait pu offrir de nouveaux garde-fous et une nouvelle agence aux personnes qui n’avaient que peu de recours lorsqu’elles étaient mal identifiées et/ou examinées par les technologies d’IA existantes et émergentes.

Comment faire en sorte que le plan national colle

Certains des panélistes de l’événement Brookings du 5 décembre ont proposé plusieurs recommandations qui méritent d’être décrites dans ce blog, à commencer par la nécessité d’une approche plus sectorielle de la gouvernance de l’IA, l’inclusion explicite de l’application de la loi dans le Blueprint et l’idée de revoir le système civil existant du pays. et les précédents en matière de droits de l’homme pour garantir leur applicabilité à l’espace en ligne.

  1. Les approches sectorielles seront essentielles à l’avancement et à l’application. Il n’y a pas de solution miracle pour la gouvernance de l’IA, ce qui est évident dans la législation complète et unique introduite dans l’Union européenne (UE). L’UE envisage actuellement une nouvelle version de la proposition de loi sur la réglementation de l’intelligence artificielle (loi sur l’IA) qui a été confrontée à des défis importants en tant que texte législatif unique, des défis qu’une approche sectorielle éviterait en grande partie. Le maintien d’une approche plus flexible dans l’application des principes du Blueprint permettrait des solutions innovantes adaptées aux différents secteurs, tels que la santé, le logement et l’éducation, où les systèmes automatisés sont utilisés.
  2. L’application de la loi doit faire partie intégrante des orientations nationales du Plan directeur. L’OSTP devrait envisager soit d’offrir un addendum au plan directeur existant pour fournir des lignes directrices pour les applications d’application de la loi, soit d’inclure les agences compétentes sous la tutelle du gouvernement fédéral. Les pratiques entourant l’utilisation de l’IA sur des sujets humains, en plus des politiques d’approvisionnement, devraient être revues, et les systèmes adoptés dans le cadre d’un « modèle monolithique d’approvisionnement technologique » devraient être réévalués, d’autant plus qu’ils « sont rarement [take] en tenant compte de la liberté constitutionnelle », qui illustre la nécessité d’inclure les forces de l’ordre dans ces conversations initiales afin d’élaborer des lignes directrices claires pour leur utilisation de l’IA.
  3. Les régimes de droits civils existants devraient être réexaminés pour garantir leur applicabilité aux règles numériques nouvelles et émergentes. Les lois et statuts historiques sur les droits civils trouvent leurs racines dans les efforts de résistance antérieurs à la révolution numérique. Alors que, implicitement, les lois qui régissent le logement équitable, le crédit, l’embauche et l’éducation devraient s’appliquer, elles peuvent tomber sous le radar de l’interprétation contemporaine, en particulier parmi les systèmes d’IA qui contournent les limites des protections des droits civils. Kearns et Roth ont souligné l’économie des données inférentielles dans leur livre de signature, The Ethical Algorithm (2019), et lorsqu’elles ne sont pas vérifiées, les données démographiques qui sont extrapolées plutôt que confirmées par les sujets peuvent conduire à des biais en ligne et à un impact disparate, excluant complètement les opportunités pour historiquement populations marginalisées. La Maison Blanche devrait créer une nouvelle commission sur les droits civils pour évaluer l’agilité des lois existantes au nouvel environnement numérique.

Conclusion

Une dernière alternative, mais certainement pas théorique, est l’action du Congrès par le biais d’une législation constructive qui renforce les idées tirées du Plan directeur. Le travail de démocratisation de l’IA aux États-Unis et dans le monde n’est pas une tâche facile. Les lois instables sur la confidentialité des données compliquent également la présentation d’un cadre fondé sur les droits qui donne potentiellement aux consommateurs un pouvoir sur les données et les décisions. Mais à ce stade, la législation pourrait être le seul moyen de faire respecter ces droits, étant donné les défis liés à l’application de certains critères et résultats qui peuvent être motivés par des intérêts de propriété.

Le Congrès doit absolument se tourner vers de nouvelles règles de confidentialité des données qui soutiennent la mise en œuvre d’un cadre de gouvernance de l’IA fondé sur les droits, tout en établissant des directives claires concernant l’audit des décisions automatisées dans certains cas d’utilisation, principalement le crédit, le logement, l’embauche, l’éducation et les soins de santé. Les principes énoncés dans le Blueprint for an AI Bill of Rights sont cruciaux – les individus doivent absolument avoir le droit à des systèmes automatisés sûrs, à la protection contre la discrimination algorithmique, à la confidentialité des données, à la notification de l’utilisation de l’IA et à des alternatives humaines significatives – mais sans congressionnel action, les stratégies visant à apporter des changements peuvent manquer du régime d’application efficace et crédible que seule la législation peut créer. Reste à savoir si le Congrès agira pour codifier ces principes et étendre leur couverture à l’application de la loi et à la sécurité nationale, là où ils sont le plus nécessaires, mais l’influence de la Maison Blanche derrière cette question est un premier pas encourageant.

Vous pourriez également aimer...