Pourquoi le président Biden devrait interdire l’informatique affective dans l’application de la loi fédérale

L’informatique affective est un domaine interdisciplinaire qui utilise des algorithmes pour analyser les corps, les visages et les voix afin de déduire les émotions et l’état d’esprit humains. Bien qu’ils ne soient pas largement utilisés, les organismes chargés de l’application de la loi et les entreprises expérimentent l’utilisation de l’informatique affective pour extraire des informations sur la personnalité, détecter la tromperie et identifier les comportements criminels. Pourtant, il n’y a pas suffisamment de preuves que ces technologies fonctionnent de manière suffisamment fiable pour être utilisées pour les enjeux élevés de l’application de la loi. Pire encore, ils menacent les principes américains fondamentaux de la liberté civile dans une société pluraliste en présumant que les mouvements du visage, les réactions physiques et le ton de la voix peuvent être des preuves de criminalité. L’administration Biden devrait rejeter publiquement et sans équivoque cette perspective en interdisant l’utilisation de l’informatique affective dans l’application de la loi fédérale.

L’informatique affective comprend un large éventail de technologies qui utilisent des données et des algorithmes pour reconnaître et influencer les émotions humaines. De nombreuses questions restent sans réponse, mais il existe des contributions précieuses et plausibles de l’informatique affective qui justifient des recherches plus approfondies. Par exemple, les enregistrements audio pourraient aider à identifier les anciens combattants qui pourraient être à risque de se suicider. Les systèmes de surveillance des conducteurs utilisant l’informatique affective pourraient vraisemblablement avertir les conducteurs épuisés et réduire les accidents mortels de la circulation. L’application Woebot a attiré l’attention pour offrir une thérapie automatisée utilisant l’informatique affective, bien que l’efficacité de cette approche soit inconnue. Il peut y avoir un débat honnête sur l’efficacité de ces applications et sur la mesure dans laquelle elles ont été précipitées dans une utilisation commerciale avant la science. Pourtant, les tâches qui intéressent les forces de l’ordre, telles que la détection de mensonges et la détection de comportements criminels, dépassent clairement les capacités de l’informatique affective.

Les preuves disponibles suggèrent que l’informatique affective n’est pas assez efficace pour être utilisée dans l’application de la loi. Dans une évaluation de l’Agence des services frontaliers du Canada, un système d’entrevue automatisé expérimental appelé AVATAR a fonctionné lamentablement en tant que détecteur de mensonge. Malgré la prise de plus d’un million de mesures dans chaque entretien, y compris le suivi des yeux, les mouvements du visage et les caractéristiques vocales, AVATAR n’a pas été en mesure d’identifier de manière fiable la tromperie. Cette évaluation a même donné au système informatique affectant un handicap absurde en utilisant les mêmes données pour le développement et l’évaluation du modèle, ce qui conduit généralement à des résultats trop optimistes. Les psychologues s’empressent de noter qu’il n’y a aucune base scientifique pour indiquer que le langage corporel, les expressions faciales et la hauteur vocale sont même indicatifs de tromperie. Les explorations journalistiques de logiciels d’entretien commerciaux similaires ont révélé que les personnes interrogées portaient des lunettes ou qu’elles ajoutaient des étagères en arrière-plan. Un autre système commercial n’a pas réussi à reconnaître que la personne interrogée ne parlait pas anglais lorsqu’elle a tenté d’évaluer ses compétences en anglais. Un examen plus large de la littérature scientifique suggère que la déduction d’émotions à partir d’expressions faciales n’est pas fiable.

Malgré les enjeux élevés et le manque de preuves d’efficacité, il y a lieu de craindre que les forces de l’ordre ne mettent en œuvre l’informatique affective. Le Guardian a rapporté que « des dizaines de services de police locaux aux États-Unis » utilisent EyeDetect, qui prétend de manière douteuse détecter la tromperie avec le suivi oculaire. Au Royaume-Uni, une force de police du comté expérimente un système qui prétend identifier «la colère et la détresse» en plus d’effectuer la reconnaissance faciale. Au niveau fédéral, le Department of Homeland Security et d’autres agences ont financé et testé le système AVATAR, bien qu’il semble que les États-Unis et le Canada aient sagement décidé de ne pas l’utiliser. L’UE a dépensé environ cinq millions d’euros pour la recherche d’un système de sécurité de l’immigration appelé iBorderCtrl, qui a également tenté de détecter les mensonges à l’aide des traits et des mouvements du visage. Alors que certaines forces de l’ordre locales ont été moins hésitantes, il semble que les agences fédérales chargées de l’application de la loi se soient largement abstenues de déployer des systèmes informatiques affectant, malgré quelques tests et expérimentations.

Sans interdiction, il y aura toujours une possibilité permanente que certaines agences ou départements surestiment le pouvoir de l’informatique affective et appliquent la technologie de manière inappropriée. Des preuves récentes de l’utilisation de la reconnaissance faciale devraient sonner l’alarme. Le mois dernier, un rapport du Government Accountability Office (GAO) a révélé que treize organismes fédéraux chargés de l’application de la loi ne suivaient ni ne fournissaient de conseils pour l’utilisation des systèmes de reconnaissance faciale non gouvernementaux – un seul organisme l’était. De plus, les rapports de Buzzfeed suggèrent que l’examen du GAO a manqué cinq autres organismes d’application de la loi qui ont affirmé ne pas utiliser le logiciel de reconnaissance faciale le plus notoire, Clearview AI, bien qu’ils apparaissent dans les données de Clearview. La reconnaissance faciale fonctionne, mais ses limites largement documentées auraient dû amener les forces de l’ordre à cataloguer son utilisation et à développer les meilleures pratiques avant son application généralisée – cela ne s’est pas produit.

Ce logiciel informatique affectif est facile d’accès permet également son adoption potentielle. Les services cloud de Google, Amazon et Microsoft prétendent tous permettre une certaine forme de détection des émotions à partir d’images faciales, tandis qu’IBM vend un analyseur de tonalité. Certains signes, tels que l’acquisition d’Affica pour 74,5 millions de dollars, suggèrent que l’industrie de l’informatique affective se développe rapidement, ce qui signifie que ses outils deviendront plus faciles à trouver et à utiliser. Certaines entreprises affirment déjà qu’elles peuvent identifier des modèles de comportement qui indiquent une intention criminelle – une affirmation incroyablement douteuse – et plaident explicitement en faveur de l’utilisation de ces systèmes par les forces de l’ordre. Ces entreprises sont aidées par la propagation des systèmes de reconnaissance faciale, qui établissent des caméras vidéo et des systèmes de données pouvant accueillir des logiciels informatiques affectifs. Il existe également une énorme quantité de recherches autour de l’informatique affective, ce qui crée une opportunité pour les entreprises de créer des récits avec des preuves sélectives pour leur application spécifique.

Une interdiction plus large de l’informatique affective pour les décisions à enjeux élevés, telles que l’embauche et les admissions à l’université, serait retardée par la nécessité de l’approbation du Congrès. Une interdiction complète dans toutes les agences fédérales pourrait également saper le potentiel de son utilisation précieuse. Cependant, rien n’empêche le président Biden de publier un décret interdisant l’utilisation de l’informatique affective dans les organismes fédéraux chargés de l’application des lois.

« De tout ce que nous savons sur l’IA, il est également sûr de déduire [affective computing] serait particulièrement préjudiciable aux minorités et aux personnes handicapées »

Une interdiction ciblée de l’application de la loi fédérale présente de nombreux avantages. Tout d’abord, cela empêcherait l’utilisation d’une technologie non éprouvée par des agents fédéraux, ce qui serait préjudiciable même si elle était rare. De tout ce que nous savons sur l’IA, il est également sûr de déduire que cela serait particulièrement nocif pour les minorités et les personnes handicapées. Au-delà des agences fédérales, une interdiction enverrait également un signal aux forces de l’ordre nationales et locales que le gouvernement fédéral estime que les preuves ne justifient pas l’utilisation de l’informatique affective. Cela peut également dissuader les prétendues IA Clearview du monde – des entreprises qui pourraient prendre des mesures drastiques pour développer et vendre des logiciels informatiques affectifs tout en minimisant les préjudices potentiels pour le public. En outre, l’utilisation de l’informatique affective par les forces de l’ordre repose sur le principe fondamental selon lequel quelque chose d’expressif qu’une personne fait avec son corps, son visage ou sa voix est la preuve d’un acte répréhensible ou même d’un acte criminel. Ce serait prototypiquement dystopique, sinon pour son utilisation actuelle en Chine, et n’a certainement pas sa place dans un pays attaché à la liberté civile. De manière moins tangible, mais non moins précieuse, cette interdiction serait un signal clair – à la fois pour ses propres citoyens et pour le reste du monde – que les États-Unis ne défendent que l’utilisation sûre et éthique de l’IA.

La politique publique aux États-Unis répugne à mettre en œuvre le principe de précaution, selon lequel une technologie est interdite avant que ses dommages ne soient largement démontrés, mais l’argument dans ce cas est clair. Étant donné que l’informatique affective concerne l’analyse des émotions et de la personnalité, cette interdiction n’empêcherait pas l’utilisation de la transcription de la parole en texte, de la détection d’armes ou de la reconnaissance faciale.

À l’avenir, si une recherche indépendante démontre la validité et l’efficacité d’une technologie affective spécifique, une exception pourrait facilement être faite. Jusque-là, en interdisant d’affecter l’informatique dans l’application des lois fédérales, le président Biden a l’occasion de donner un exemple positif aux États-Unis et au monde sur l’utilisation éthique des technologies d’intelligence artificielle à enjeux élevés.


Google, Amazon, Microsoft et IBM sont des donateurs généraux et illimités à la Brookings Institution. Les résultats, interprétations et conclusions publiés dans cet article sont uniquement ceux des auteurs et ne sont influencés par aucun don.

Vous pourriez également aimer...