« Il s’agit de savoir s’il est effectivement possible d’avoir à nouveau des élections libres et équitables. Vu la manière dont les choses se présentent, je ne pense pas que ce soit le cas. Et donc, la question que je leur pose est : c’est cela que vous voulez ? C’est ainsi que vous voulez que l’Histoire se souvienne de vous ? Comme serviteurs de l’autoritarisme qui grandit dans le monde entier[1]. » Ce sont là les questions que Carole Cadwalladr, journaliste du quotidien britannique Guardian, adresse aux « dieux de la Silicon Valley » dans un célèbre « TED talk », qui a été vu presque quatre millions de fois.
L’affaire en cause était celle de la Cambridge Analytica, la société publicitaire qui, en utilisant des données issues de millions de profils Facebook, avait influencé les élections présidentielles aux États-Unis en 2017 ainsi que le referendum sur le Brexit en 2018. Le Gardian et le New York Times ont accusé le réseau social d’avoir rendu possible le recueil des données, tout en ne les ayant pas transmises de manière active, mais en les sous-évaluant. Facebook a à son tour accusé Cambridge Analytica d’avoir soustrait les informations de manière illicite. Cet épisode a porté sur le devant de la scène la puissance cachée dans la moisson de données recueillies sur les réseaux : en les traitant avec des algorithmes adaptés, on est en mesure d’influencer les décisions personnelles et d’obtenir des résultats impressionnants dans le domaine social et politique.
Pour citer un exemple plus récent, regardons l’utilisation que la Chine et la Corée du Sud ont fait d’applications qui, à travers la géolocalisation, permettent de tracer les déplacements et les contacts des personnes[2]. Si, d’un côté, leur mise en place est motivée par l’état d’exception visant à empêcher la diffusion de la contagion du Covid-19, de l’autre, une surveillance sociale d’une précision et d’une capillarité inédites se trouve ainsi légitimée. Nous nous trouvons face à une situation qui favorise l’acceptation sociale des nouvelles technologies, avec le risque d’occulter un type de contrôle sur les corps qui est exercé dans une logique biopolitique[3].
La manipulation de la liberté qui est mise en évidence par ces épisodes coupe l’herbe sous le pied à toute vision naïve des nouvelles technologies digitales, vision qui serait spontanément positive ou tout du moins neutre. Sans compter qu’il ne s’agit là que d’un aspect de la question. En effet, les nouvelles technologies ne se développent pas de manière isolée et sectorielle, mais dans une étroite connexion réciproque. C’est pour cela qu’elles sont qualifiées d’« émergentes et convergentes »[4]. Regroupées sous l’acronyme NBIC, en font partie l’étude systématique de la matière à une échelle de grandeur « nanométrique[5] », la biologie (y compris la génétique), l’informatique et les sciences cognitives. Si, d’un côté, ordinateurs et algorithmes permettent d’élaborer et de projeter des interventions sur le patrimoine héréditaire jusqu’à présent inimaginables, d’un autre côté, la recherche sur les systèmes informatisés s’inspire des résultats des neuro-sciences : nous pensons aux « réseaux neuronaux », au machine learning ou à l’idée d’employer des modèles biologiques, comme celui de l’ADN, pour conserver des données.
This article is reserved for paid subscribers. Please subscribe to continue reading this article
Subscribe
Bienvenue à
La Civiltà Cattolica !
Cet article est réservé aux abonnés payants
Veuillez vous connecter ou vous abonner pour continuer à lire cet article