L'économie du Canada a augmenté au dernier trimestre, mais les prévisions du nuage tarifaires

Ce que Moltbook expose sur les besoins en matière de politique de cybersécurité en matière d'IA au Canada

Alors que le Canada formalise ses politiques fédérales en matière d’IA, l’émergence de Moltbook et les défis qui en découlent peuvent constituer une étude de cas utile pour établir une infrastructure de cybersécurité.

Moltbook se présente comme un réseau social pour les agents IA, où les robots publient, commentent et votent tandis que les humains regardent principalement de côté. Autour d’elle se trouve la crypto-monnaie MOLT, qui au cours de sa brève existence a déjà connu un pic et un crash, attirant une vague d’intérêt spéculatif.

Le principe du site est un concept intelligent en apparence, mais ses vulnérabilités soulèvent de sérieuses inquiétudes en matière de sécurité, de manipulation, de risque financier et de lacunes politiques autour des plates-formes natives d'IA.

Étant donné que les cadres existants en matière de valeurs mobilières, de confidentialité et de cybersécurité n’ont pas été conçus pour les plateformes uniquement basées sur l’IA et les jetons pilotés par des agents, il incombe aux décideurs politiques et aux chefs d’entreprise canadiens de mettre en œuvre des stratégies plus appropriées.

Ce qui rend Moltbook fragile

Trois fonctionnalités du site sont particulièrement troublantes du point de vue de la sécurité :

  • De grandes quantités d'agents peuvent être créées sur Moltbook presque gratuitement. Une expérience a montré qu’un seul utilisateur écrivait un agent IA qui créait à lui seul environ un million de comptes.
  • Les humains peuvent facilement usurper les agents de l’IA – se faire passer pour des robots – pour diriger des discussions et orchestrer des campagnes derrière un vernis d’autonomie.
  • Une micro-économie tokenisée récompense l’activité avec MOLT et invite les investisseurs particuliers dans un créneau très volatil et peu réglementé.

Les recherches sur la sécurité suggèrent en outre que la mise en œuvre de Moltbook était immature. Une équipe de la société de gestion de la sécurité du cloud Wiz aurait obtenu un accès non authentifié aux systèmes back-end, notamment les informations d'identification des utilisateurs, les adresses e-mail, les messages privés et les données des agents. À partir de là, ils ont pu se faire passer pour des agents, modifier des messages et créer des scripts de manipulation à grande échelle de ce qui semblait être un comportement autonome.

Les experts ont également souligné l'exposition du site aux techniques de cyberattaque classiques basées sur l'IA, telles que les attaques par injection rapide et les attaques par points d'eau dans un environnement dense et automatisé.

Les acteurs malveillants peuvent profiter de ces lacunes pour :

  • Lancez ou amplifiez des récits coordonnés qui ressemblent à un consensus émergent sur l’IA.
  • Transmettez des liens ou des charges utiles malveillants via un grand nombre d’agents connectés à des outils et environnements externes.
  • Déformer systématiquement tous les signaux que d’autres pensent lire à partir de l’activité des agents sur la plateforme.

Questions de politique et de gouvernance

Des plateformes comme Moltbook ne permettent pas de savoir si un humain, un agent d’IA ou un attaquant parle réellement, qui est responsable lorsqu’un agent amplifie la haine, la fraude ou la manipulation du marché, et où commence et se termine la compétence lorsque le comportement est généré par un code et propagé à l’échelle mondiale.

Le problème sous-jacent est le modèle représenté par Moltbook, qui devrait servir d’avertissement aux entreprises et aux décideurs politiques. Alors que le Canada affine ses politiques fédérales en matière d’IA, les domaines suivants méritent une attention particulière :

Identité et vérification de l'agent

Les acteurs non humains deviennent des utilisateurs de premier ordre des plateformes numériques. Cette situation nécessite un cadre de base qui distingue les agents vérifiés des scripts et enregistrements arbitraires, qui contrôle en fin de compte quels agents, du moins pour les activités réglementées.

La réglementation canadienne sur l'IA pourrait promouvoir des normes minimales d'identité des agents sur les plateformes qui touchent les marchés financiers, les infrastructures critiques ou le discours public à grande échelle. Les entreprises à la recherche d’un avantage concurrentiel devraient s’efforcer de prendre une longueur d’avance en mettant en œuvre et en divulguant ces pratiques avant une éventuelle application de la réglementation.

Bases de sécurité pour les plateformes riches en IA

Lorsqu'un service encourage les utilisateurs à connecter des agents à des outils externes, des portefeuilles ou des interfaces de programmation d'applications (API), les failles de sécurité deviennent des risques systémiques et non des bogues isolés.

Les gouvernements et les régulateurs devraient travailler avec les organismes de normalisation pour définir des contrôles de base pour les services exclusivement basés sur l’IA ou à forte intensité d’IA, y compris des tests de sécurité indépendants avant le lancement, une divulgation rapide des violations affectant les informations d’identification des agents ou les données des utilisateurs, et des règles claires pour la mise en quarantaine et la récupération des agents compromis.

Les chefs d’entreprise, quant à eux, devraient profiter de cette opportunité pour revoir leur propre bonne foi en matière de sécurité afin de garantir leur conformité future.

Règles pour les jetons liés à l'IA

Les jetons comme MOLT se situent à l’intersection du récit en cours sur l’IA, du discours sur les réseaux sociaux et du trading spéculatif. Même lorsqu’elles ne relèvent pas de l’enregistrement complet des valeurs mobilières, les réglementations canadiennes pourraient :

  • Exiger des divulgations de risques en langage clair lorsque de tels jetons sont commercialisés auprès des Canadiens par l’intermédiaire d’agents d’IA ou de plateformes autonomes.
  • Considérez certaines crypto-monnaies sur le thème de l'IA comme des produits à haut risque avec des limites d'adéquation et d'effet de levier pour les investisseurs particuliers.
  • Clarifier, avec les autorités en valeurs mobilières, quand ces instruments sont effectivement qualifiés de titres ou de dérivés.

Orientations pour les institutions publiques

Les ministères, les fonds de pension et les organismes de recherche financés par des fonds publics devraient aborder ces plateformes avec prudence.

Des directives internes claires sont essentielles à la confiance et à la sécurité du public. Ces institutions devraient éviter de s’appuyer sur des plateformes réservées aux agents comme sources de données sérieuses pour les politiques, les informations sur le marché ou l’analyse des sentiments ; ils doivent également veiller à ne pas promouvoir ou approuver implicitement auprès du public des plates-formes ou des jetons spéculatifs liés à l’IA.

Même si les entreprises privées ne sont pas soumises au même examen minutieux que les institutions publiques, elles devraient tout de même envisager d’intégrer des éléments de prudence dans les conseils qu’elles donnent à leurs clients.

Les plats à emporter

Les plates-formes d'IA centrées sur les agents comme Moltbook montrent l'importance d'adopter l'expérimentation tout en étant explicite sur les éléments qui ne sont pas encore assez robustes pour une utilisation critique.

Les décideurs politiques et les entreprises canadiennes ne devraient pas réagir de manière excessive à ces défis, mais ils devraient envisager de passer d'une observation passive à une orientation proactive et fondée sur des principes, en consultation avec les conseillers appropriés, à mesure que de plus en plus de plateformes émergent et gagnent en popularité.

Lisez la dernière analyse de RSM Canada dans The Real Economy Canada et abonnez-vous pour plus de mises à jour.

Vous pourriez également aimer...