La voie de l’UE vers une réglementation sur l’intelligence artificielle

Les progrès de l’IA font leur chemin dans tous les produits et services avec lesquels nous interagissons. Nos voitures sont équipées d’outils qui déclenchent la rupture automatique, des plates-formes telles que Netflix suggèrent de manière proactive des recommandations de visualisation, Alexa et Google peuvent prédire nos besoins de recherche, et Spotify peut recommander des chansons et organiser des listes d’écoute bien mieux que vous ou moi.

Bien que les avantages de l’IA dans notre vie quotidienne soient indéniables, les gens s’inquiètent de ses dangers. Une sécurité physique inadéquate, des pertes économiques et des problèmes éthiques ne sont que quelques exemples des dommages que l’IA pourrait causer. En réponse aux dangers de l’IA, l’Union européenne travaille sur un cadre juridique pour réglementer l’intelligence artificielle. Récemment, la Commission européenne a proposé son premier cadre juridique sur l’intelligence artificielle. Cette proposition est le résultat d’un travail long et compliqué mené par les autorités européennes. Auparavant, le Parlement européen avait publié une résolution contenant des recommandations à la Commission européenne. Avant cela, les législateurs de l’UE ont adopté la résolution de 2017 et le «Rapport sur les implications en matière de sécurité et de responsabilité de l’intelligence artificielle, de l’Internet des objets et de la robotique» accompagnant le «Livre blanc sur l’intelligence artificielle» de la Commission européenne en 2020.

Dans la résolution du 20 octobre 2020 sur le régime de responsabilité civile en matière d’intelligence artificielle, le Parlement européen a reconnu que le système juridique actuel manque d’une discipline spécifique concernant la responsabilité des systèmes d’IA. Selon le corps législatif, les capacités et l’autonomie des technologies rendent difficile la traçabilité de décisions humaines spécifiques. En conséquence, la personne qui souffre de dommages causés par les systèmes AI ne peut généralement pas être indemnisée sans preuve de la responsabilité de l’exploitant. Pour cette raison, la résolution a formulé une proposition à l’annexe B avec des recommandations à la Commission européenne. Cette proposition comprend 17 pages, cinq chapitres et 15 articles.

Suite aux recommandations du Parlement européen, le 21 avril 2021, la Commission européenne a élaboré sa proposition de cadre juridique de l’IA à travers 108 pages et neuf annexes. Ce cadre suit une approche basée sur les risques et différencie les utilisations de l’IA selon qu’elles créent un risque inacceptable, un risque élevé ou un risque faible. Le risque est inacceptable s’il constitue une menace claire pour la sécurité des personnes et les droits fondamentaux et est interdit pour cette raison. La Commission européenne a identifié des exemples de risques inacceptables comme des utilisations de l’IA qui manipulent le comportement humain et des systèmes qui permettent la notation du crédit social. Par exemple, ce cadre juridique européen interdirait un système d’IA similaire à la notation du crédit social en Chine.

La Commission européenne a défini le haut risque comme un système destiné à être utilisé en tant que composant de sécurité, qui est soumis à un contrôle de conformité par un tiers. La notion de risque élevé est mieux spécifiée par l’annexe III de la proposition de la Commission européenne, qui considère huit domaines. Parmi ces domaines, on considère les systèmes d’IA à haut risque liés aux infrastructures critiques (telles que la circulation routière et l’approvisionnement en eau), la formation pédagogique (par exemple, l’utilisation de systèmes d’IA pour noter les tests et les examens), les composants de sécurité des produits (par exemple, les robots. chirurgie assistée) et la sélection des employés (p. ex., logiciel de tri de CV). Les systèmes d’IA qui entrent dans la catégorie à haut risque sont soumis à des exigences strictes, auxquelles ils doivent se conformer avant d’être mis sur le marché. Parmi ceux-ci figurent l’adoption d’une évaluation des risques adéquate, la traçabilité des résultats, des informations adéquates sur le système d’IA doivent être fournies à l’utilisateur et la garantie d’un haut niveau de sécurité. En outre, un contrôle humain adéquat doit être présent.

Si les systèmes d’IA présentent un faible risque, ils doivent se conformer aux obligations de transparence. Dans ce cas, les utilisateurs doivent être conscients qu’ils interagissent avec une machine. Par exemple, dans le cas d’un «deepfake», où les images et les vidéos d’une personne sont manipulées pour ressembler à quelqu’un d’autre, les utilisateurs doivent déclarer que l’image ou le contenu vidéo a été manipulé. Le projet de la Commission européenne ne réglemente pas les systèmes d’IA qui présentent peu ou pas de risque pour les citoyens européens, comme l’IA utilisée dans les jeux vidéo.

Dans son cadre, la Commission européenne adopte une approche favorable à l’innovation. Un aspect très intéressant est que la Commission soutient l’innovation par le biais de ce que l’on appelle des bacs à sable réglementaires d’IA pour les systèmes d’IA non à haut risque, qui fournissent un environnement qui facilite le développement et les tests de systèmes d’IA innovants.

La proposition de la Commission représente une étape très importante vers la réglementation de l’intelligence artificielle. Dans une prochaine étape, le Parlement européen et les États membres devront adopter la proposition de la Commission. Une fois adopté, le nouveau cadre juridique sera directement applicable dans toute l’Union européenne. Le cadre aura un fort impact économique sur de nombreuses personnes, entreprises et organisations. Sa pertinence est liée au fait que ses effets pourraient s’étendre au-delà des frontières de l’Union européenne, affectant les entreprises technologiques étrangères qui opèrent au sein de l’UE. De ce point de vue, la nécessité d’adopter un cadre juridique sur l’intelligence artificielle apparaît cruciale. En effet, les systèmes d’IA ont montré dans plusieurs cas des limitations sévères, comme un système de recrutement Amazon discriminatoire à l’égard des femmes, ou un accident récent impliquant une voiture Tesla roulant en mode pilote automatique qui a causé la mort de deux hommes. Ces exemples conduisent à une réflexion sérieuse sur la nécessité d’adopter un cadre juridique dans des juridictions autres que l’Union européenne.


Amazon et Google sont des donateurs généraux et sans restriction de la Brookings Institution. Les résultats, interprétations et conclusions de cet article sont uniquement ceux des auteurs et ne sont influencés par aucun don.

Vous pourriez également aimer...