Le droit de ne pas être jumelé – AIER

Selon l’imagination populaire du public, alors que nous nous dirigeons vers l’avenir à toute vitesse, la technologie gère et «optimise» de plus en plus nos vies. Déjà, les publicités nous suivent sur les réseaux sociaux, les systèmes de recommandation offrent des produits que nous pourrions vouloir et dont nous pourrions avoir besoin, de fausses vidéos profondes transforment le discours politique et les applications de rencontres facilitent l’établissement de connexions, en particulier pendant les périodes de verrouillage désespérées et solitaires. Mais que se passerait-il si nous avions une technologie à notre disposition qui nous permettrait «d’optimiser» la recherche et de trouver le véritable amour sans tous les essais et erreurs? La nouvelle série dramatique de science-fiction de Netflix Celui présente un futur proche bercé par une nouvelle technologie qui promet de trouver à chaque personne son partenaire, mais mettre en place les gens avec «celui-là» n’est pas aussi simple qu’ils le prétendent.

L’un est tendance dans le Top 10 de Netflix ce mois-ci. Le personnage principal est Rebecca Webb (avec Hannah Ware) – PDG de The One, une société de technologie / génétique qui promet de «faire correspondre» les gens avec leur âme sœur parfaite avec juste un simple test ADN. Elle et son co-chercheur ont conçu un service, qui semble fonctionner exactement comme annoncé et promis, mesurant les données génétiques trouvées dans les chromosomes (malheureusement, nous ne savons pas tout à fait comment – les détails ringards sont épargnés au grand public à l’exception de deux très brèves mentions) pour trouver le partenaire idéal d’une personne. Le service fonctionne si bien que lorsque les âmes sœurs potentielles sont réellement jumelées, elles ont du mal à se résister. Ceci, d’autre part, conduit à des divorces, des drames familiaux et d’autres turbulences. Mais ce qui compte, c’est que la technologie fonctionne. Celui dépeint l’incroyable détermination des gens et une volonté quelque peu inexplicable d’utiliser la technologie pour améliorer leur vie, quel qu’en soit le prix. Cette volonté conduit beaucoup d’entre eux à tricher et à nuire aux autres pour la promesse d’un monde beaucoup plus simple (meilleur?) Grâce à une technologie omniprésente.

De toute évidence, Celui n’est pas le premier film du genre. En fait, nous avons été bombardés par diverses productions hollywoodiennes et séries télévisées nous disant la même chose: la technologie finira par prendre le dessus. Considérez le largement acclamé Miroir noir, Ex Machina, ou Westworld. Et lorsque nous traduisons ces visions dans notre vie quotidienne, la question ultime qui compte est: sommes-nous d’accord pour nous contenter de la prise de décision algorithmique dans les domaines majoritaires de notre vie?

Ne vous méprenez pas cependant. Je peux certainement voir un argument solide en faveur de systèmes algorithmiques soutenant la prise de décision humaine dans divers domaines de notre vie. Je comprends que les diagnostics médicaux peuvent au moins en partie être effectués de manière très efficace par des systèmes de traitement d’images robustes et je peux facilement trouver des applications d’algorithmes d’apprentissage automatique supervisés et non supervisés dans les prévisions météorologiques, la logistique, l’agriculture et de nombreux autres secteurs. Mais en tant qu’expert en IA qui déploie l’apprentissage automatique en tant que méthode scientifique pour résoudre divers problèmes au quotidien, je ne suis généralement pas d’accord avec la prise de décision algorithmique dans la plupart des autres domaines, en particulier ceux sensibles.

Prenons l’exemple de la datation. Vous disposez actuellement d’une variété d’applications qui facilitent les rencontres et les rencontres. Certains s’appuient sur la randomisation, certains principalement sur la géolocalisation, et certains appliquent des filtres basés sur l’âge, le sexe, les loisirs et d’autres préférences pour améliorer l’opportunité de correspondance. La plupart de ces services de rencontres implémentent des algorithmes assez avancés qui sont souvent protégés par IP. Et nombre d’entre eux ont grandement profité des terribles périodes de pandémie. Tinder a audacieusement développé de nouvelles fonctionnalités, telles que la «vérification des antécédents» ou l’offre de courses Lyft à des dates. De plus, il existe apparemment plusieurs sites de rencontres qui disent utiliser la génétique pour faire correspondre les gens avec des partenaires romantiques potentiels. Quelques exemples sont DNA Romance et Gene Partner.

Il existe également une application de rencontre développée par le professeur de Harvard George Church qui vise à empêcher que les maladies génétiques ne soient transmises aux enfants par des parents porteurs des mêmes mutations génétiques. SafeM8 utiliserait le séquençage du génome pour identifier les personnes qui ne sont pas génétiquement compatibles et les éliminer des recherches les unes des autres, selon BioNews.org.

«Vous ne sauriez pas avec qui vous n’êtes pas compatible. Vous découvrirez simplement avec qui vous êtes compatible », a expliqué Church. Même si j’hésite vraiment à propos de l’idée même de Church et du slogan «technique» derrière elle («Des relations plus sûres et plus intelligentes»), elles laissent encore la place au choix. Et aussi problématique que leur utilisation puisse parfois être, aucune d’entre elles ne vous dit vraiment qu’il n’y a qu’un petit groupe de personnes (limité à une ou deux personnes?) Qui, selon certains critères de la boîte noire, sont vos correspondances.

Les algorithmes permettent une efficacité sans précédent et peuvent faciliter notre travail. Bon nombre des tâches banales et routinières que nous avons tendance à ne pas aimer seront exécutées par des algorithmes à l’avenir. Je pense cependant que partout où cela est possible, les algorithmes et leur travail doivent être transparents et explicables, afin que nous comprenions ce qui se passe réellement, comment les informations sont traitées et d’où viennent les résultats que nous voyons. De nombreux projets de recherche sérieux menés par des équipes pionnières dans le monde se concentrent sur l’augmentation de l’explicabilité des algorithmes d’IA. Actuellement, la plupart des experts estiment que chaque fois qu’un niveau d’explicabilité satisfaisant ne peut être atteint, les humains devraient être ceux qui prennent une décision et sont donc également responsables des décisions prises. Lorsqu’il s’agit de transparence, le problème n’est généralement pas aussi affiné scientifiquement; c’est juste une question de combien est révélé à l’utilisateur. Je pense qu’il serait avantageux d’avoir plus de transparence dans les produits et services qui reposent généralement sur le traitement des données des utilisateurs.

Comme le soutient Yuval Noah Harrari dans Forbes, avec la pandémie de Covid, «les ingénieurs créent de nouvelles plates-formes numériques qui nous aident à fonctionner en lock-out et de nouveaux outils de surveillance qui nous aident à briser les chaînes de l’infection.» Il remarque également que la surveillance met en péril notre vie privée et permet peut-être l’émergence d’un régime totalitaire sans précédent. Maintenant, lorsque la surveillance de type Big Brother est combinée à un manque de transparence et d’explicabilité, les choses deviennent encore plus problématiques. Et cela empire encore lorsque le public est alimenté par des histoires que seule une technologie de suivi complexe et non transparente peut soit les empêcher d’être malades, soit les remplacer pour trouver une personne avec qui passer leur vie.

Par ailleurs, Harari a également demandé à qui était de trouver le juste équilibre entre surveillance utile et cauchemars dystopiques: ingénieurs ou politiciens? Eh bien, ma réponse est: la nôtre. Nous avons tous besoin et méritons des outils que nous comprenons et pouvons contrôler. C’est pourquoi je pense que nous devrions vraiment en parler et résister aux technologies qui, au lieu de soutenir et de collaborer avec les humains, prennent le relais et prennent des décisions en leur nom. La culture pop nous nourrit de ces scénarios comme inévitables. Écrivons-en différents dans nos vraies vies.

Aleksandra Przegalinska

Aleksandra Przegalinska

Alexandra est professeure agrégée de gestion et a obtenu son doctorat en philosophie de l’intelligence artificielle à l’Institut de philosophie de l’Université de Varsovie. Actuellement, elle est vice-recteur pour la coopération internationale et l’ESR à l’Université Kozminski en Pologne. Ancien chercheur postdoctoral au Massachusetts Institute of Technology à Boston.

Diplômée de la New School for Social Research à New York, où elle a participé à des recherches sur l’identité en réalité virtuelle, avec un accent particulier sur Second Life.

Elle est chercheuse invitée à l’American Institute for Economic Research. À l’automne 2021, elle commencera à travailler en tant que chercheuse principale au programme Travail et vie professionnelle de l’Université Harvard.

Aleksandra s’intéresse à l’intelligence artificielle, au traitement du langage naturel, à l’apprentissage automatique, aux robots sociaux et aux technologies portables.

Soyez informé des nouveaux articles d’Aleksandra Przegalinska et de l’AIER.

Vous pourriez également aimer...