La Commission européenne envisage de nouvelles réglementations et mesures d'application pour l'IA «à haut risque»

La semaine dernière, la Commission européenne (CE) a publié un livre blanc qui vise à garantir des garanties sociétales pour l'intelligence artificielle (IA) «à haut risque». Le nombre de modèles d'IA à grande échelle et très influents augmente à la fois dans le secteur public et privé, et la CE envisage donc sérieusement où de nouvelles réglementations, des ajustements législatifs ou une meilleure capacité de surveillance pourraient être nécessaires. Ces modèles affectent des millions de personnes par le biais de décisions critiques liées à l'approbation de crédit, aux réclamations d'assurance, aux interventions de santé, à la libération avant procès, à l'embauche, au licenciement et bien plus encore. Alors que la reconnaissance faciale, les armes autonomes et l'intelligence générale artificielle tendent à dominer la conversation, le débat sur la réglementation des applications les plus courantes est tout aussi important.

Le nouveau livre blanc fait écho aux principes des anciennes directives d'éthique en matière d'IA: non-discrimination, transparence, responsabilité, confidentialité, robustesse, bien-être environnemental et surveillance humaine. Ce nouveau document va au-delà de nombreux cadres d'éthique de l'IA antérieurs pour offrir des options réglementaires spécifiques à l'IA. Certaines de ces options consisteraient à modifier le droit de l'UE en vigueur, par exemple en veillant à ce que le droit sur la responsabilité du fait des produits puisse être appliqué aux logiciels et services basés sur l'IA.

Plus remarquable, cependant, est la proposition de considérer des exigences entièrement nouvelles sur les applications d'IA à haut risque. La catégorisation à haut risque est limitée à des cas d'utilisation spécifiques dans des secteurs spécifiques où les enjeux sont particulièrement importants. Le rapport cite explicitement des secteurs tels que les transports, les soins de santé, l'énergie, l'emploi et l'identification biométrique à distance, mais d'autres comme les services financiers pourraient être inclus. Dans ces secteurs, seules les applications d'IA particulièrement percutantes recevraient le label «à haut risque» et la surveillance qui l'accompagne. Ainsi, bien qu'un algorithme d'allocation des soins de santé puisse être inclus, un logiciel de planification compatible avec l'IA d'un hôpital ne serait probablement pas admissible.

Le rapport détaille une série de mécanismes de surveillance possibles pour les applications considérées comme des IA à haut risque. Certaines d'entre elles établiraient des normes pour l'utilisation de l'IA, telles que l'utilisation de données d'entraînement représentatives et le respect de niveaux définis de précision et de robustesse du modèle. D'autres nécessitent le stockage des données et de la documentation, permettant potentiellement au gouvernement de vérifier les modèles d'IA. Des mesures de transparence sont également à l'étude. Celles-ci peuvent nécessiter des rapports aux autorités réglementaires (par exemple, une analyse des biais pour les classes protégées) ou directement aux consommateurs affectés par le modèle (par exemple, une explication personnalisée de leur résultat du modèle). Toutes ces exigences ne s'appliqueraient pas à toutes les IA à haut risque, mais à la place, un sous-ensemble de ces mécanismes serait associé à chaque application à haut risque.

Pour évaluer comment ces mécanismes pourraient fonctionner, il est utile de réfléchir à la façon dont diverses interventions pourraient affecter des cas importants de préjudices liés à l'IA. Par exemple, l'activation d'audits ralentirait-elle la prolifération des logiciels d'embauche pseudoscientifiques dans les départements des ressources humaines? Les exigences de déclaration aideraient-elles à identifier le traitement discriminatoire des patients dans les algorithmes d'attribution des soins de santé? Un processus de test plus rigoureux de la conduite autonome de Tesla les aurait-il rendus plus résistants aux autocollants qui incitent les véhicules à rouler à des vitesses dangereuses? Ce sont des questions que le document de la CE soulève – des questions que les décideurs politiques américains devraient également se poser. Étant donné un type d'algorithme utilisé à une fin particulière à haut risque, quels mécanismes de surveillance pourraient garantir qu'il fonctionne de manière légale et éthique?

Étant donné un type d'algorithme utilisé à une fin particulière à haut risque, quels mécanismes de surveillance pourraient garantir qu'il fonctionne de manière légale et éthique?

Bien que le document de la CE explore de nouvelles exigences, il indique également clairement que l'application du droit existant est difficile en raison de la complexité et de l'opacité de l'IA. Il faut une expertise spécifique dans la programmation et les statistiques pour évaluer l'équité et la robustesse des modèles d'IA, que les agences de régulation à travers l'UE peuvent ne pas avoir encore. Il s'agit très probablement d'un problème aux États-Unis également. Les modèles d'IA peuvent facilement aller à l'encontre de nombreuses exigences fédérales, telles que les Civil Rights Acts, l'Americans with Disabilities Act, le Fair Credit Reporting Act, le Fair Housing Act et les réglementations de modélisation financière. Il n'est pas certain que les agences de réglementation américaines soient dotées du personnel nécessaire pour relever ce nouveau défi.

Le document de la CE note qu'investir dans sa capacité à appliquer les garanties de l'IA présente également de réels avantages pour l'industrie. L'approche européenne soutient qu'une réglementation responsable renforcera la confiance du public dans l'IA, permettant aux entreprises de construire des systèmes automatisés sans perdre la confiance de leurs clients. D'une manière générale, le point de vue de la CE est positif quant à l'émergence de l'IA en tant que technologie polyvalente. Il présente l'IA comme un outil puissant pour améliorer la recherche scientifique, stimuler la croissance économique et rendre les services publics plus efficaces. Ils cherchent à attirer 20 milliards d'euros (21,7 milliards USD) de financement annuel pour l'IA, dont une partie proviendrait de l'augmentation des dépenses de l'UE. Cet effort serait également soutenu par une stratégie ambitieuse visant à encourager le partage de données et à élargir l'accès à l'infrastructure cloud.

La CE est prête à envisager de nouvelles mesures de surveillance significatives sur la prolifération rapide de la prise de décision automatisée, tout en augmentant ses investissements dans l'innovation et l'adoption de l'IA. Aux États-Unis, il existe déjà un consensus général sur la valeur de l'IA – le sénateur Chuck Schumer et le président Trump ont récemment proposé de nouveaux investissements massifs dans l'IA. Cependant, il semble y avoir moins d'intérêt à établir un cadre réglementaire solide. Les décideurs politiques américains devraient reconsidérer et rejoindre la CE examine ces questions politiques, telles que: définir l'IA à haut risque; faire correspondre les mécanismes de réglementation avec les applications et les circonstances spécifiques de l'IA; et explorer comment renforcer les capacités du gouvernement.

Depuis que la nouvelle présidente de la CE, Ursula von der Leyen, s'est engagée à introduire une législation sur l'IA au cours de ses 100 premiers jours, le livre blanc de la CE pourrait lancer de sérieuses négociations entre les États membres de l'UE. Il s'agit d'une conversation importante à suivre, signalant un changement substantiel de la nébuleuse «éthique de l'IA» vers une surveillance significative des systèmes de prise de décision automatisés.

Vous pourriez également aimer...