
Fin mars, le Future of Life Institute a publié une lettre ouverte (et une FAQ connexe) appelant « tous les laboratoires d’IA à suspendre immédiatement pendant au moins six mois la formation de systèmes d’IA plus puissants que GPT-4. Cette pause doit être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut pas être décrétée rapidement, les gouvernements devraient intervenir et instituer un moratoire. La lettre, qui indiquait également que « les systèmes d’IA puissants ne devraient être développés que lorsque nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables », a été initialement signée par plus d’un millier de personnes, dont de nombreux leaders technologiques notables. Plusieurs milliers d’autres ont ajouté leur signature après sa publication.
Les entreprises et les universités individuelles ont le droit de décider si, et à quel rythme, elles travailleront sur l’intelligence artificielle (IA). Mais un moratoire gouvernemental aux États-Unis sur la formation de puissants systèmes d’IA soulèverait une foule de préoccupations, notamment les suivantes :
Retarder les avantages de l’IA
Il est déjà clair que l’IA apportera des avantages au développement de médicaments, au diagnostic médical, à la modélisation du climat et aux prévisions météorologiques, à l’éducation et à de nombreux autres domaines. De plus, comme c’est souvent le cas avec les technologies émergentes, les grands systèmes d’IA produiront des avantages que nous ne sommes pas en mesure de prévoir à l’avance.
Un arrêt du travail imposé par le gouvernement à l’échelle nationale sur une catégorie clé d’IA aurait pour résultat inévitable de retarder l’accès aux avantages de la technologie. Pour certaines applications, telles que l’utilisation de grands modèles linguistiques pour améliorer l’éducation et élargir l’accès aux services juridiques, ces retards auraient des conséquences problématiques.
Légalement douteux
Il n’y a aucune entité gouvernementale fédérale ou étatique américaine qui dispose d’une autorité légale claire pour décréter un moratoire sur la formation des grands systèmes d’IA. Par exemple, la mission de la Federal Trade Commission (FTC) est de « protéger le public contre les pratiques commerciales trompeuses ou déloyales et contre les méthodes de concurrence déloyales ». Ironiquement, un moratoire de la FTC entraver entreprises de se faire concurrence pour développer de meilleurs systèmes d’IA, les poussant plutôt à agir de concert pour arrêter (puis redémarrer plus tard) leur travail sur la formation de grands modèles d’IA. Et, bien que le Congrès ait un large pouvoir législatif en vertu de la clause commerciale, ce pouvoir a également des limites.
Il y aurait également des implications en relation avec le premier amendement, qui protège la réception d’informations, y compris les informations numériques obtenues sur Internet. Bien sûr, comme le soulignent plusieurs poursuites récemment intentées contre des entreprises qui fabriquent des générateurs d’images d’IA, il existe des questions complexes de droit d’auteur non résolues lorsque les modèles d’IA sont formés à l’aide de données tierces. Mais, dans la mesure où une entreprise est capable de construire un grand ensemble de données d’une manière qui évite toute violation de la loi sur le droit d’auteur ou des contrats, il existe un bon argument (bien que non testé) selon lequel le premier amendement confère le droit d’utiliser ces données pour former un grand modèle d’IA.
En bref, un moratoire – qu’il provienne d’une agence gouvernementale ou du Congrès – serait immédiatement contesté devant les tribunaux.
Difficile à appliquer efficacement
Un moratoire serait difficile à appliquer efficacement. Le gouvernement américain ne va clairement pas commencer à s’engager dans des raids de style ère de la prohibition contre des entreprises soupçonnées d’effectuer une formation non autorisée à l’IA. Plus généralement, le gouvernement n’a pas les ressources humaines ou techniques pour vérifier de manière affirmative le respect d’un moratoire à l’échelle nationale. Au lieu de cela, un moratoire serait probablement mis en œuvre par le biais d’un processus d’auto-déclaration, obligeant les entreprises et les universités à certifier qu’elles ne se livrent pas à des travaux d’IA interdits. Il n’y aurait pas de moyen facile de générer la liste des entreprises et des universités soumises à cette exigence de certification.
Un autre problème avec l’application est que, à moins qu’un lanceur d’alerte ne se manifeste, un comportement violant le moratoire serait presque impossible à détecter. L’IA est très différente d’un domaine comme le développement d’armes nucléaires, où le respect des moratoires est faisable (mais pas toujours facile) à suivre car les matériaux et technologies associés, tels que l’uranium et les centrifugeuses nucléaires, sont difficiles à trouver, difficiles à utiliser , et ont un ensemble très limité d’utilisations. Avec les systèmes d’IA, les ingrédients clés sont les données et la puissance de calcul, qui sont tous deux facilement accessibles et ont une liste essentiellement illimitée d’utilisations ne violant pas le moratoire.
Problèmes de dessin au trait
Une autre préoccupation résiderait dans la définition des travaux liés à l’IA qui sont interdits. Quel serait le seuil de taille des systèmes d’IA soumis au moratoire ? Quelle métrique ou quel ensemble de métriques serait considéré comme suffisant pour caractériser la taille d’un système d’IA ? Qui ferait la mesure ? Un langage réglementaire imposant un moratoire sur les systèmes d’IA par taille pourrait-il être rédigé sans créer de failles permettant de le contourner facilement ? Et le moratoire ne s’appliquerait-il qu’à la formation proprement dite des grands systèmes d’IA, ou également au développement de technologies connexes, dont certaines pourraient permettre de construire une IA puissante avec des systèmes plus petits ou moins de formation qu’auparavant ?
Le « Et ensuite? » Problème
Un moratoire de six mois conduirait également rapidement à un manque de consensus sur ce qu’il faut faire ensuite. À mesure que la date d’expiration se rapprochait, certaines personnes diraient que le moratoire devrait être prolongé de six mois ou plus. D’autres diront qu’il devrait être complètement supprimé. D’autres encore plaideraient pour un nouveau cadre différent, peut-être basé sur la révision des règles sur les activités spécifiques interdites. Ces incertitudes rendraient très difficile pour les entreprises de prendre des décisions concernant l’embauche, les investissements en recherche et développement et la planification des produits liés à l’IA.
Implications géopolitiques
Une conséquence évidente qu’il convient néanmoins de noter est qu’un moratoire aux États-Unis sur la formation des plus grands modèles d’IA n’aurait aucune force internationale. Les gouvernements et les entreprises d’autres pays continueraient d’investir dans la construction de grands systèmes d’IA. Les avancées, le savoir-faire et la création d’emplois résultant de ce travail désavantageraient les États-Unis en matière de technologie d’IA.
En résumé, le résultat est que l’IA est extrêmement prometteuse, tout en créant un nouvel ensemble de risques. Quelles que soient les politiques adoptées par les États-Unis, la technologie des grands systèmes d’IA continuera de progresser au niveau mondial. Il vaut bien mieux que les États-Unis restent à la pointe de l’IA – en faisant progresser l’état de l’art et en utilisant ces connaissances pour mieux identifier et atténuer les risques – que pour le gouvernement américain de tenter d’imposer une loi légalement douteuse, inapplicable et facilement contourné l’arrêt national des travaux sur la formation de grands systèmes d’IA.
