Il est temps de négocier des traités mondiaux sur l’intelligence artificielle

La Commission de sécurité nationale américaine sur l’intelligence artificielle a récemment fait la une des journaux lorsque ses membres ont averti que l’Amérique était confrontée à une crise de sécurité nationale en raison d’un investissement insuffisant dans l’intelligence artificielle et les technologies émergentes. Le vice-président de la Commission, Robert Work, a fait valoir que «nous ne pensons pas que ce soit le moment des budgets supplémentaires… Cela coûtera cher et nécessitera un changement important de mentalité aux niveaux national, des agences et du Cabinet.» Le président de la Commission, Eric Schmidt, a prolongé ces inquiétudes en déclarant que «la Chine rattrape les États-Unis» et que «la concurrence avec la Chine augmentera».

Ce n’est pas la première fois que le pays s’inquiète des ramifications économiques et de sécurité nationale des nouvelles technologies. Au lendemain de la Seconde Guerre mondiale, les États-Unis, l’Union soviétique, la Chine, la France, l’Allemagne, le Japon, le Royaume-Uni et d’autres étaient préoccupés par le risque de guerre et les aspects éthiques des armes nucléaires, des agents chimiques et de la guerre biologique. . Malgré des visions du monde, des intérêts nationaux et des systèmes de gouvernement très différents, leurs dirigeants ont conclu un certain nombre d’accords et de traités pour contraindre certains comportements et définir les règles de la guerre. Il existe des traités concernant la maîtrise des armes nucléaires, les armes classiques, les armes biologiques et chimiques, l’espace extra-atmosphérique, les mines terrestres, la protection des civils et le traitement humain des prisonniers de guerre.

L’objectif de ces accords était d’assurer une stabilité et une prévisibilité accrues dans les affaires internationales, d’introduire des normes humanitaires et éthiques largement répandues dans la conduite de la guerre et de réduire les risques de malentendus susceptibles de déclencher des conflits involontaires ou une escalade incontrôlable. En discutant avec les adversaires et en négociant des accords, on espérait que le monde pourrait éviter les tragédies des conflagrations à grande échelle, maintenant avec des armes d’une destruction inimaginable, qui pourraient coûter des millions de vies et perturber le monde entier.

Avec l’essor de l’intelligence artificielle, du calcul intensif et de l’analyse des données, le monde se trouve aujourd’hui à un tournant crucial dans la sécurité nationale et la conduite de la guerre. Parfois connues sous le nom de triade de l’IA, ces caractéristiques et d’autres systèmes d’armes, tels que les hypersoniques, accélèrent à la fois la vitesse à laquelle la guerre est menée et la vitesse à laquelle la guerre peut s’intensifier. Appelée «hyperguerre» par Amir Husain et l’un de nous (John R. Allen), cette nouvelle forme de guerre comportera des niveaux d’autonomie, y compris le potentiel d’armes autonomes mortelles sans que les humains soient au courant de la prise de décision.

Elle affectera à la fois la nature et le caractère de la guerre et entraînera de nouveaux risques pour l’humanité. Comme indiqué dans notre récent livre sur l’IA «Turning Point», cette réalité émergente pourrait présenter des essaims de drones susceptibles de submerger les porte-avions, des cyberattaques sur des infrastructures critiques, des armes nucléaires guidées par l’IA et des missiles hypersoniques qui se lancent automatiquement lorsque les capteurs satellitaires détectent des actions inquiétantes en adversaires. Cela peut sembler être un avenir dystopique, mais certaines de ces capacités sont avec nous maintenant. Et pour être clair, nous sommes tous les deux, et plus largement les démocraties libérales du monde, aux prises avec les implications morales et éthiques de systèmes d’armes mortels totalement autonomes.

En cette ère à haut risque, il est maintenant temps de négocier des accords mondiaux régissant la conduite de la guerre lors de l’adoption précoce et de l’adaptation de l’IA et des technologies émergentes à la guerre et à des systèmes et des armes spécifiques. Il sera beaucoup plus facile de le faire avant que les capacités de l’IA ne soient pleinement déployées et intégrées dans la planification militaire. À l’instar des traités antérieurs sur les armes nucléaires, biologiques et chimiques de l’après-guerre, ces accords devraient se concentrer sur plusieurs principes clés:

  • Incorporer des principes éthiques tels que les droits de l’homme, la responsabilité et la protection des civils dans les décisions militaires fondées sur l’IA. Les décideurs devraient veiller à ce qu’il n’y ait pas de nivellement par le bas qui permette à la technologie de dicter les applications militaires par opposition aux valeurs humaines fondamentales.
  • Gardez les humains au courant grâce à des systèmes d’armes autonomes. Il est vital que les gens prennent les décisions ultimes concernant les lancements de missiles, les attaques de drones et les actions militaires à grande échelle. Le bon jugement et la sagesse ne peuvent pas être automatisés et l’IA ne peut pas intégrer les principes éthiques nécessaires dans ses évaluations.
  • Adopter une norme de ne pas avoir d’algorithmes d’IA dans les systèmes de commandement et de contrôle opérationnels nucléaires. Le risque de destruction mondiale est élevé avec le lancement basé sur l’IA des systèmes d’alerte. Étant donné que nous ne savons pas, et ne saurons peut-être jamais, exactement comment l’IA apprend des données d’entraînement, il est important de ne pas déployer de systèmes qui pourraient créer une menace existentielle pour l’humanité.
  • Protégez les infrastructures critiques en faisant en sorte que les pays acceptent de ne pas voler de données commerciales vitales ou de ne pas perturber les réseaux électriques, les réseaux à large bande, les réseaux financiers ou les installations médicales de manière non provoquée par des attaques numériques conventionnelles ou des cyberarmes alimentées par l’IA. La création d’une définition commune de ce qui constitue une infrastructure critique sera importante pour la mise en œuvre de ce principe.
  • Améliorer la transparence sur la sécurité des systèmes d’armes basés sur l’IA. Il est essentiel de disposer de plus d’informations sur les tests et l’évaluation des logiciels qui peuvent rassurer le public et réduire les risques de perceptions erronées concernant les applications d’IA. Cela améliorerait la prévisibilité et la stabilité de la mise au point des armes.
  • Développer des mécanismes de contrôle efficaces pour assurer le respect des accords internationaux. Cela comprendrait des convocations d’experts, une assistance technique, des échanges d’informations et des inspections périodiques du site destinées à vérifier la conformité.

La bonne nouvelle est que certaines entités internationales travaillent déjà sur ces questions. Par exemple, le Partenariat mondial sur l’intelligence artificielle est un groupe de plus d’une douzaine de nations démocratiques qui ont accepté de «soutenir le développement et l’utilisation responsables et centrés sur l’homme de l’IA d’une manière compatible avec les droits de l’homme, les libertés fondamentales et notre partage. valeurs démocratiques. » Cette communauté de démocraties est dirigée par l’Organisation de coopération et de développement économiques et propose des réunions de haut niveau, des recherches et une assistance technique.

Cela dit, il y a de plus en plus d’appels pour que les démocraties technologiquement avancées se rassemblent pour agréger leurs capacités, ainsi que pour tirer parti de leur force morale accumulée, pour créer les normes et les comportements éthiques essentiels pour régir les applications de l’IA et d’autres technologies. La création d’un réservoir d’engagement humanitaire parmi les démocraties sera vitale pour négocier à partir d’une position de force morale avec les Chinois, les Russes et d’autres États autoritaires dont les opinions sur l’avenir de l’IA diffèrent considérablement des nôtres.

En outre, l’Organisation du Traité de l’Atlantique Nord, l’Union européenne et d’autres alliances régionales de sécurité mènent des consultations visant à créer des normes et des politiques convenues sur l’IA et d’autres nouvelles technologies. Cela comprend des efforts pour concevoir des principes éthiques pour l’IA qui régissent le développement et le déploiement d’algorithmes et fournissent des garde-corps pour les actions économiques et militaires. Cependant, pour que ces accords soient pleinement mis en œuvre, ils devront bénéficier de la participation et du soutien actifs de la Chine et de la Russie ainsi que d’autres États concernés. Car tout comme pendant la guerre froide, la logique devrait dicter que des adversaires potentiels soient à la table des négociations lors de l’élaboration de ces accords. Sinon, les pays démocratiques se retrouveront dans une situation où ils seront autonomes, mais pas leurs adversaires.

Il est essentiel que les dirigeants nationaux s’appuient sur les efforts internationaux et s’assurent que les principes clés sont incorporés dans les accords contemporains. Nous devons conclure des traités avec des alliés et des adversaires qui fournissent des orientations fiables pour l’utilisation de la technologie dans la guerre, créent des règles sur ce qui est humain et moralement acceptable, décrivent une conduite militaire inacceptable, garantissent un respect effectif et prennent des mesures qui protègent l’humanité. Nous arrivons rapidement au point où le fait de ne pas prendre les mesures nécessaires rendra nos sociétés inacceptablement vulnérables et soumettra le monde au spectre de la guerre froide, à savoir un risque constant et un potentiel de destruction impensable. Comme le préconisent les membres de la Commission de la sécurité nationale, il est temps de prendre des mesures sérieuses concernant l’avenir de l’IA. Les enjeux sont trop élevés autrement.

Vous pourriez également aimer...