L’intelligence artificielle est une autre raison pour une nouvelle agence numérique

Le rythme effréné des développements de l’intelligence artificielle (IA) contraste avec les processus torpides de protection de l’intérêt public impactés par la technologie. Les systèmes de surveillance privés et gouvernementaux qui ont été développés pour faire face à la révolution industrielle ne sont pas à la hauteur de la révolution de l’IA.

La surveillance de l’IA nécessite une méthodologie aussi révolutionnaire que la technologie elle-même.

Confronté aux défis de la technologie industrielle, le peuple américain a réagi avec de nouveaux concepts tels que l’application des lois antitrust et la surveillance réglementaire. Jusqu’à présent, les décideurs politiques n’ont pas réussi à faire face aux nouvelles réalités de la révolution numérique. Ces réalités ne deviennent que plus intimidantes avec l’IA. La réponse à la technologie intelligente ne peut pas répéter le régulateur de vitesse réglementaire que nous avons connu jusqu’à présent concernant les plateformes numériques. Les services numériques destinés aux consommateurs, qu’il s’agisse de plates-formes telles que Google, Facebook, Microsoft, Apple et Amazon, ou de services d’intelligence artificielle (dirigés par bon nombre des mêmes entreprises), nécessitent une agence fédérale spécialisée et ciblée dotée d’experts rémunérés de manière appropriée.

Ce qui fonctionnait avant est insuffisant

Dépoussiérer ce qui fonctionnait auparavant à l’ère industrielle pour protéger les consommateurs, la concurrence et la sécurité nationale n’est pas suffisant face aux nouveaux défis de l’ère de l’IA. Une expertise spécialisée est nécessaire pour comprendre non seulement le fonctionnement de la technologie de l’IA, mais également les effets sociaux, économiques et de sécurité qui en résultent. Déterminer la responsabilité de ces effets tout en encourageant le développement continu marche sur une corde raide entre l’innovation et la responsabilité. S’appuyer sur d’anciens statuts et structures réglementaires pour réagir avec la rapidité et l’étendue de l’IA, c’est s’attendre à l’impossible et inviter le préjudice inévitable à l’intérêt public lorsque les anciens systèmes ne peuvent pas suivre le rythme et que les intérêts privés sont autorisés à déterminer ce qui est un comportement acceptable.

De la même manière, arrêter ou ralentir le développement de l’IA est aussi futile que d’empêcher le soleil de se lever. Dans la révolution de l’information originale qui a suivi l’imprimerie de Gutenberg, l’Église catholique a essayé et échoué à ralentir la nouvelle technologie. Si la menace de la damnation éternelle n’était pas suffisante pour arrêter l’inertie des nouvelles idées et des opportunités économiques à l’époque, pourquoi pensons-nous pouvoir arrêter la révolution de l’IA maintenant ?

La réponse des responsables politiques nationaux à l’IA a été bipartite. Le chef de la majorité au Sénat, Chuck Schumer, a appelé à des lignes directrices pour l’examen et les tests de la technologie de l’IA avant sa sortie. Le bureau du président de la Chambre, Kevin McCarthy, explique comment il a emmené un groupe de législateurs au MIT pour en savoir plus sur l’IA. Un rapport du comité consultatif présidentiel a conclu qu' »une action directe et intentionnelle est nécessaire pour réaliser les avantages de l’IA et garantir sa répartition équitable dans notre société ». La déclaration des droits de l’IA de l’administration Biden était un début, mais les droits s’accompagnent d’obligations et de la nécessité d’établir les responsabilités des fournisseurs d’IA pour protéger ces droits.

La présidente de la Federal Trade Commission (FTC), Lina Khan, qui a été suffisamment agressive dans l’exercice des pouvoirs de son agence, a observé : « Il n’y a pas d’exception d’IA aux lois en vigueur. Elle a bien sûr raison. Les lois sur les livres, cependant, ont été écrites pour faire face aux problèmes créés par l’économie industrielle. Le statut principal de la propre agence de la présidente Khan a été rédigé en 1914.

Au-delà des limitations statutaires évidentes, la réglementation sectorielle qui s’appuie sur les régulateurs existants tels que la FTC, la Federal Communications Commission (FCC), la Securities and Exchange Commission (SEC), le Consumer Financial Protection Board (CFPB) et d’autres pour traiter les problèmes d’IA sur une base Il ne faut pas confondre le morcellement secteur par secteur avec l’établissement d’une politique nationale. Oui, ces agences seront responsables d’effets spécifiques dans leurs secteurs spécifiques, mais l’autorité sectorielle déterminée par l’action d’une agence indépendante ne représente pas l’établissement d’une politique globale cohérente en matière d’IA.

L’Administration nationale des télécommunications et de l’information (NTIA) du Département du commerce gère un processus pour solliciter des idées sur la surveillance de l’IA. C’est une avancée importante. Mais la réponse est devant nous. Ce qu’il faut, c’est un organisme spécialisé pour identifier et faire respecter les obligations générales d’intérêt public pour les entreprises d’IA.

Nouveau modèle réglementaire

Alors que le titre est une nouvelle agence, la véritable révolution réglementaire doit être dans la façon dont cette agence fonctionne. L’objectif de la surveillance de l’IA devrait être double : protéger l’intérêt public et promouvoir l’innovation en matière d’IA. L’ancienne microgestion descendante qui caractérisait la réglementation industrielle ralentira les avantages de l’innovation en IA. Au lieu de l’ancienne microgestion de style utilitaire, la surveillance de l’IA exige une gestion agile des risques.

Un tel nouveau paradigme réglementaire fonctionnerait en trois parties :

  • Identification et quantification du risque : L’effet de la technologie de l’IA n’est pas uniforme. L’IA qui facilite les choix de recherche ou les jeux en ligne a un impact très différent de l’IA qui affecte la sécurité personnelle ou nationale. La surveillance doit être sur mesure, adaptée aux besoins, plutôt qu’une taille unique.
  • Codes comportementaux : au lieu d’une réglementation rigide de type utilitaire, la surveillance de l’IA doit être agile et innovante. Une fois le risque identifié, il doit y avoir des obligations comportementales conçues pour atténuer ce risque. Pour parvenir à un tel code de conduite, il faut un nouveau niveau de coopération entre le gouvernement et l’industrie dans lequel la nouvelle agence identifie un problème, convoque des experts de l’industrie pour travailler avec les experts de l’agence afin de proposer un code de comportement et de déterminer si ce résultat est un réponse acceptable.
  • Application : La nouvelle agence devrait avoir le pouvoir de déterminer si le nouveau code est suivi et d’imposer des sanctions si ce n’est pas le cas.

Inconnues connues

Les effets futurs de l’IA sont inconnus. Ce que l’on sait, c’est ce que nous avons appris jusqu’à présent à l’ère numérique sur la façon dont le fait de ne pas protéger l’intérêt public au milieu d’une technologie en évolution rapide entraîne des effets néfastes.

Une fois de plus, nous assistons au développement et au déploiement de nouvelles technologies sans tenir compte de leurs conséquences. Le moment est venu d’établir des normes d’intérêt public pour cette puissante nouvelle technologie. En l’absence d’une plus grande force que l’incitation commerciale de ceux qui cherchent à appliquer la technologie, l’histoire du début de l’ère numérique se répétera alors que les innovateurs établissent les règles et que la société en assume les conséquences.

Vous pourriez également aimer...