Le gouvernement américain devrait réglementer l’IA s’il veut diriger la gouvernance internationale de l’IA

Le mardi 16 mai, le Sénat américain a tenu une audition sur la réglementation de l’IA, en mettant l’accent sur ChatGPT. Si et comment les États-Unis réglementent ChatGPT – et l’IA plus généralement – aideront à donner le ton à l’échelle mondiale pour la réglementation de l’IA et comment faire face aux risques de l’IA sans étouffer l’innovation. Sam Altman (PDG d’OpenAI, qui fabrique ChatGPT4) a par exemple souligné l’importance de la coopération internationale sur des questions telles que les licences et l’audit de l’IA. Cependant, les États-Unis ont besoin de plus en matière de réglementation de l’IA, qui est un précurseur d’un leadership américain plus efficace en matière de gouvernance internationale de l’IA.

Coopération internationale sur la gouvernance de l’IA

Il existe déjà une série de forums internationaux où la coopération sur la gouvernance internationale de l’IA est en cours de discussion. Cela comprend le Conseil du commerce et de la technologie (TTC) entre les États-Unis et l’UE, le Partenariat mondial pour l’IA (GPAI), l’Organisation de coopération et de développement économiques (OCDE), ainsi que les travaux que nous menons au sein du Brookings/CEPS Forum on Coopération en IA (FCAI). Le récent communiqué des dirigeants du G-7 a également souligné la nécessité d’une coopération sur l’IA, y compris sur l’impact des LLM tels que ChatGPT. Pourtant, la capacité des États-Unis à diriger la gouvernance de l’IA au niveau international est entravée par l’absence d’une approche globale de la réglementation nationale de l’IA. Les É. contrôle par la Federal Trade Commission). Cependant, il en faut plus. L’absence d’une approche plus globale signifie que les États-Unis ne sont pas en mesure de présenter un modèle sur la manière d’aller de l’avant à l’échelle mondiale avec la gouvernance de l’IA, et sont souvent obligés de réagir aux approches d’autres pays en matière de réglementation de l’IA, la loi de l’UE sur l’IA étant le cas dans indiquer.

Grands modèles de langue tels que ChatGPT4

Lorsqu’on lui pose une question, un grand modèle de langage (LLM) est capable de générer des réponses sophistiquées qui sont de plus en plus indiscernables de ce qu’un humain pourrait répondre. ChatGPT est, par essence, une machine à probabilités à grande échelle qui prédit quel mot devrait suivre ensuite en fonction des données sur lesquelles il a été formé. ChatGPT4 est intelligent mais n’est ni conscient ni sensible. Cela dit, ChatGPT et les LLM sont des technologies extrêmement puissantes qui auront des impacts économiques, sociaux et géopolitiques importants.

Les LLM tels que ChatGPT4 ainsi que les produits d’IA générative de Google tels que Bard et PaLM2 ont entraîné une augmentation des demandes aux États-Unis en matière de réglementation de l’IA. Cela reflète les préoccupations accrues concernant les risques de préjudice des LLM, tels que certains de ces risques sont nouveaux pour les LLM, tandis que ChatGPT peut amplifier les risques d’IA existants et augmenter les dommages potentiels. Par exemple, alors que la désinformation est déjà un problème sur les réseaux sociaux, ChatGPT4 et d’autres LLM peuvent permettre des campagnes de désinformation plus ciblées et efficaces qui rendent plus difficile la détermination de la véracité des informations. La confidentialité est un vrai problème en ligne, mais ChaptGPT4 pourrait faciliter la déduction des identités personnelles, réduisant encore plus la protection de la vie privée.

Faits saillants de l’audience du Sénat sur la réglementation de l’IA

Tous ceux qui ont témoigné à l’audience ont appelé à une réglementation de l’IA, avec des différences importantes. Altman et Christina Montgomery (Chief Privacy & Trust Officer pour IBM) ont souligné la responsabilité clé des entreprises développant l’IA pour atténuer les dommages. Montgomery a décrit les processus de gouvernance interne d’IBM, tels que la nomination d’un responsable principal de l’éthique de l’IA chargé d’assurer une IA responsable et la création d’un comité d’éthique de l’IA pour guider la mise en œuvre. Altman a expliqué comment Open AI gère le risque potentiel de préjudice. Cela comprend la suppression des données personnelles des ensembles de formation (si possible), la réalisation de tests et d’évaluations internes approfondis avant de publier un modèle, et le recours aux commentaires humains pour améliorer davantage le modèle après la publication d’un modèle. De plus, OpenAI ne publie pas le code complet, les poids et les données de ChatGPT4, le rendant uniquement disponible via une interface de programmation d’application (API), mais avec une possibilité de formation supplémentaire et d’adaptation par des tiers pour des cas d’utilisation spécifiques.

En ce qui concerne la manière dont le gouvernement devrait réglementer l’IA – et les LLM en particulier – Altman a suggéré que le gouvernement devrait se concentrer sur les exigences de sécurité avant et après les tests, en travaillant avec d’autres gouvernements pour convenir d’une approche commune pour l’octroi de licences et l’audit de ces modèles d’IA. Montgomery a plaidé pour une réglementation basée sur les risques et axée sur les cas d’utilisation, au lieu de réglementer la technologie elle-même. Cela est conforme à l’approche de l’UE dans sa loi sur l’IA, où les cas d’utilisation à haut risque tels que l’utilisation d’un chatbot dans les entretiens d’embauche seraient réglementés plus strictement qu’un chatbot effectuant une réservation de vol. Elle a également appelé à exiger que les gens soient informés lorsqu’ils interagissent avec un système d’IA. La proposition de Google de filigraner toutes les images générées par Google AI pourrait contribuer à réduire l’efficacité de la désinformation. Gary Marcus, professeur émérite à l’Université de New York, était le plus préoccupé par les dommages potentiels de ChatGPT4 et a plaidé le plus fortement pour une réglementation gouvernementale. Cependant, dans son témoignage, en plus de dire qu’il ne faut pas faire confiance aux entreprises pour s’autoréguler, il s’est davantage concentré sur la collaboration entre le gouvernement et les scientifiques dans l’évaluation des modèles d’IA.

Pourquoi les États-Unis doivent réglementer l’IA

Une réglementation américaine des risques de dommages causés par l’IA est clairement nécessaire. Cependant, les processus d’élaboration de la réglementation de l’IA contrastent de plus en plus avec l’air du temps actuel, où les systèmes d’IA deviennent de plus en plus puissants et ont un impact beaucoup plus rapide que le gouvernement ne peut réagir. Cela soulève la question de savoir si le gouvernement est même capable de réglementer efficacement l’IA. Pourtant, faire des progrès dans la réglementation de l’IA sera essentiel si les États-Unis veulent diriger la coopération internationale en matière de gouvernance de l’IA.

Vous pourriez également aimer...