À quoi devrait ressembler la régulation de l’IA générative ?

Nous vivons à une époque de progrès sans précédent en matière d’intelligence artificielle générative (IA), qui sont des systèmes d’IA capables de générer un large éventail de contenus, tels que du texte ou des images. La sortie de ChatGPT, un chatbot alimenté par le grand modèle de langage (LLM) GPT-3 d’OpenAI, en novembre 2022 a fait entrer l’IA générative dans la conscience publique, et d’autres entreprises comme Google et Microsoft ont également été occupées à créer de nouvelles opportunités pour tirer parti de la technologie. Dans l’intervalle, ces avancées et applications continues de l’IA générative ont soulevé d’importantes questions sur la manière dont la technologie affectera le marché du travail, sur la manière dont son utilisation des données de formation implique les droits de propriété intellectuelle et sur la forme que devrait prendre la réglementation gouvernementale de cette industrie. La semaine dernière, une audition au Congrès avec des dirigeants clés de l’industrie a suggéré une ouverture à la réglementation de l’IA, ce que les législateurs ont déjà envisagé de régner sur certaines des conséquences négatives potentielles de l’IA générative et de l’IA plus largement. Compte tenu de ces développements, des universitaires du Centre pour l’innovation technologique (CTI) ont pesé dans les couloirs sur ce à quoi devrait ressembler la réglementation de l’IA générative.

NICOL TURNER-LEE (@Dr Turner Lee)
Chercheur principal et directeur, Centre d’innovation technologique :

La réglementation de l’IA générative pourrait commencer par de bonnes divulgations aux consommateurs

L’IA générative fait référence à des algorithmes d’apprentissage automatique qui peuvent créer de nouveaux contenus comme de l’audio, du code, des images, du texte, des simulations ou même des vidéos. Plus récemment, l’accent a été mis sur l’activation des chatbots, notamment ChatGPT, Bard, Copilot et d’autres outils plus sophistiqués qui exploitent les LLM pour effectuer diverses fonctions, telles que la collecte de recherches pour des missions, la compilation de dossiers juridiques, l’automatisation de tâches administratives répétitives ou améliorer la recherche en ligne. Alors que les débats autour de la réglementation se concentrent sur les inconvénients potentiels de l’IA générative, y compris la qualité des ensembles de données, les applications contraires à l’éthique, les préjugés raciaux ou sexistes, les implications sur la main-d’œuvre et une plus grande érosion des processus démocratiques en raison de la manipulation technologique par de mauvais acteurs, les avantages incluent une augmentation de l’efficacité et de la productivité à mesure que la technologie améliore et simplifie certains processus et décisions, comme la rationalisation du traitement des notes médicales par les médecins ou l’aide aux éducateurs pour l’enseignement de la pensée critique. Il y aura beaucoup à discuter de la valeur ultime de l’IA générative et de ses conséquences pour la société, et si le Congrès continue de fonctionner à un rythme très lent pour réglementer les technologies émergentes et instituer une norme fédérale de confidentialité, l’IA générative deviendra plus techniquement avancée et profondément intégrée dans société. Mais là où le Congrès pourrait obtenir une victoire très rapide sur le front réglementaire, c’est d’exiger des divulgations aux consommateurs lorsque le contenu généré par l’IA est utilisé et d’ajouter un étiquetage ou un certain type de processus de certification multipartite pour encourager une transparence et une responsabilité améliorées pour les cas d’utilisation existants et futurs. .

Une fois de plus, l’Union européenne montre déjà la voie dans ce domaine. Dans sa dernière loi sur l’IA, l’UE exige que le contenu généré par l’IA soit divulgué aux consommateurs afin d’empêcher la violation du droit d’auteur, le contenu illégal et d’autres malversations liées au manque de compréhension de l’utilisateur final à propos de ces systèmes. Alors que de plus en plus de chatbots exploitent, analysent et présentent le contenu de manière accessible aux utilisateurs, les résultats ne sont souvent pas attribuables à une ou plusieurs sources, et malgré certaines autorisations d’utilisation du contenu accordées en vertu de la doctrine d’utilisation équitable aux États-Unis qui protège le travail protégé par le droit d’auteur. , les consommateurs sont souvent laissés dans l’ignorance de la génération et de l’explication du processus et des résultats.

Le Congrès devrait accorder la priorité à la protection des consommateurs dans la future réglementation et s’efforcer de créer des politiques agiles et évolutives pour s’adapter aux dommages émergents pour les consommateurs et la société, en commençant par des garanties immédiates pour les utilisateurs avant qu’ils ne soient à nouveau livrés à eux-mêmes en tant que sujets hautement numérisés. produits et services. L’UE peut honnêtement être sur quelque chose avec l’exigence de divulgation, et les États-Unis pourraient contextualiser davantage son application par rapport aux modèles existants qui font de même, y compris les directives d’étiquetage de la Food and Drug Administration (FDA) ou ce que j’ai proposé dans des recherches antérieures : une adaptation du système Energy Star Rating à l’IA. Apporter plus de transparence et de responsabilité à ces systèmes doit être au cœur de tout cadre réglementaire, et commencer par de petites bouchées d’une grosse pomme pourrait être un premier coup de poignard pour les décideurs.

NIAM YARAGHI (@niamyaraghi)
Chercheur principal non résident, Centre d’innovation technologique :

Revisiter la HIPAA et les règles de blocage des informations sur la santé : équilibrer la confidentialité et l’interopérabilité à l’ère de l’IA

Avec l’émergence d’avancées sophistiquées de l’intelligence artificielle (IA), y compris les grands modèles de langage (LLM) comme GPT-4 et les applications alimentées par LLM comme ChatGPT, il est urgent de revoir les protections de la confidentialité des soins de santé. À la base, toutes les innovations de l’IA utilisent des techniques statistiques sophistiquées pour discerner des modèles dans de vastes ensembles de données à l’aide de technologies informatiques de plus en plus puissantes mais rentables. Ces trois composants – données volumineuses, méthodes statistiques avancées et ressources informatiques – sont non seulement devenus disponibles récemment, mais sont également démocratisés et rendus facilement accessibles à tous à un rythme sans précédent dans les innovations technologiques précédentes. Cette progression nous permet d’identifier des schémas qui étaient auparavant indiscernables, ce qui crée des opportunités d’avancées importantes mais aussi de possibles préjudices pour les patients.

Des réglementations sur la confidentialité, notamment HIPAA, ont été établies pour protéger la confidentialité des patients, en partant du principe que les données anonymisées resteraient anonymes. Cependant, compte tenu des progrès de la technologie de l’IA, le paysage actuel est devenu plus risqué. Désormais, il est plus facile que jamais d’intégrer divers ensembles de données provenant de sources multiples, ce qui augmente la probabilité d’identifier avec précision des patients individuels.

Outre le risque accru pour la confidentialité et la sécurité, les nouvelles technologies d’IA ont également augmenté la valeur des données de santé en raison du potentiel enrichi d’extraction de connaissances. Par conséquent, de nombreux fournisseurs de données peuvent devenir plus hésitants à partager des informations médicales avec leurs concurrents, ce qui complique davantage l’interopérabilité des données de santé.

Compte tenu de ces préoccupations accrues en matière de confidentialité et de la valeur accrue des données de santé, il est crucial d’introduire une législation moderne pour garantir que les prestataires de soins médicaux continueront à partager leurs données tout en étant protégés contre les conséquences des violations potentielles de la vie privée susceptibles d’émerger de l’utilisation généralisée de l’IA générative.

MARC MACCARTHE (@Mark_MacCarthy)
Chercheur principal non résident, Centre d’innovation technologique :

Lampedusa sur la réglementation de l’IA

Dans « Le Léopard », le célèbre roman de Giuseppe Di Lampedusa sur la réaction aristocratique sicilienne à l’unification de l’Italie dans les années 1860, l’un de ses personnages principaux dit : « Si nous voulons que les choses restent comme elles sont, les choses devront changer ».

Quelque chose comme cette réponse sicilienne pourrait se produire dans l’adoption par l’industrie technologique de l’inévitable réglementation de l’IA. Cependant, trois choses sont nécessaires si nous ne voulons pas que les choses restent en l’état.

La première étape, et la plus importante, consiste à fournir aux agences des ressources suffisantes pour faire appliquer la loi en vigueur. La présidente de la Federal Trade Commission, Lina Khan, a déclaré à juste titre que l’IA n’est pas exemptée des lois actuelles sur la protection des consommateurs, la discrimination, l’emploi et la concurrence, mais si les organismes de réglementation ne peuvent pas embaucher de personnel technique et porter des affaires d’IA en période d’austérité budgétaire, la loi actuelle sera une mort lettre.

Deuxièmement, les décideurs politiques ne doivent pas être distraits par les fantasmes de science-fiction de programmes d’IA développant la conscience et réalisant une agence indépendante sur les humains, même si ces abstractions métaphysiques sont approuvées par les leaders de l’industrie. Pas un centime d’argent public ne devrait être dépensé pour ces détournements hautement spéculatifs lorsque les escrocs et les marginaux de l’industrie cherchent à utiliser l’IA pour enfreindre la loi existante.

Troisièmement, le Congrès devrait envisager d’adopter de nouvelles exigences en matière d’identification, de transparence, d’évaluation des risques et de protection des droits d’auteur, conformément à la proposition de loi sur l’IA proposée par l’Union européenne. La demande de commentaires de la National Telecommunications and Information Administration sur un cadre de responsabilité proposé pour l’IA et l’initiative législative récemment annoncée par le sénateur Chuck Schumer (D-NY) pour réglementer l’IA pourraient aller dans cette direction.

TOM WHEELER (@tewheels)
Chercheur invité, Centre d’innovation technologique :

L’IA innovante nécessite une supervision innovante

Les deux côtés de l’allée politique, ainsi que les chefs d’entreprise numériques, parlent maintenant de la nécessité de réglementer l’IA. Un thème commun est la nécessité d’une nouvelle agence fédérale. Cependant, cloner simplement le modèle utilisé pour les agences de réglementation existantes n’est pas la solution. Ce modèle, développé pour la surveillance d’une économie industrielle, a profité d’une innovation au rythme plus lent pour microgérer l’activité des entreprises. Il ne convient pas à la vitesse de l’ère de l’IA en roue libre.

Toutes les réglementations marchent sur une corde raide entre la protection de l’intérêt public et la promotion de l’innovation et de l’investissement. À l’ère de l’IA, emprunter cette voie signifie accepter que différentes applications d’IA présentent des risques différents et identifier un plan qui associe la réglementation au risque tout en évitant la microgestion réglementaire qui étouffe l’innovation.

Une telle agilité commence par l’adoption de la formule par laquelle les entreprises numériques créent technique normes comme formule pour développer comportemental normes : identifier le problème ; monter un processus normatif impliquant les entreprises, la société civile et l’agence ; donner ensuite l’approbation finale et le pouvoir d’exécution à l’agence.

L’industrialisation consistait à remplacer et/ou à augmenter le physique pouvoir des humains. L’intelligence artificielle consiste à remplacer et/ou à augmenter les capacités humaines cognitif pouvoirs. Confondre la manière dont le premier a été réglementé avec ce qui est nécessaire pour le second reviendrait à rater l’occasion pour la réglementation d’être aussi innovante que la technologie qu’elle supervise. Nous avons besoin d’institutions pour l’ère numérique qui s’attaquent à des problèmes qui sont déjà évidents pour tous.

Google et Microsoft sont des donateurs généraux et sans restriction de la Brookings Institution. Les découvertes, interprétations et conclusions publiées dans cet article sont uniquement celles de l’auteur et ne sont influencées par aucun don.

Vous pourriez également aimer...