Le sommet de l’IA ou le spectacle de la normalisation

Travail, santé, surveillance : n'ayez crainte !

NECRODATA
6 min ⋅ 25/02/2025

Salut tout le monde !

Necrodata arrive dans le game des newsletters qui finissent dans vos spams ! Infolettre à peine publiée qu’elle est déjà morte.

Necrodata, c’est une modeste tentative pour aider à faire sens des enjeux autour des algorithmes, de l’intelligence artificielle et des plateformes. On parlera de santé, de sexualité, de surveillance, d’art, de travail ou encore de démocratie. On touchera à tout, mais il sera toujours question de partager des réflexions critiques sur les fameuses nouvelles technologies qui excitent les imaginaires et attisent les peurs.

Necrodata, c’est la newsletter des traces numériques que nous laissons derrière nous.

Necrodata, c’est un cri dans le vide algorithmique contre les machines qui ruinent le monde.

Necrodata, ça sera une fois par semaine, ou peut être une fois par mois, ou bien tous les six mois parce qu’ici on a une thèse à écrire.

Tout va pour le mieux dans le monde merveilleux de l’intelligence artificielle. D’ailleurs, elle est inévitable et elle est ici pour rester, qu’on le veuille ou non. C’est la conclusion du Grand Sommet de l’IA qui a eu lieu à Paris, le 10 et 11 février. Pendant plusieurs jours, l’événement mondial a réuni entrepreneur·euses et chercheur·euses en IA aux côtés d’hommes et femmes politiques. Le sommet se voulait être une réunion politique, économique et sociale, mais il y avait aussi un tout autre spectacle: celui de la normalisation de l’intelligence artificielle. En France, les grands médias se sont faits les émissaires de cet événement en diffusant des reportages sur les promesses de l’IA, en invitant sur les plateaux des expert·es aux paroles prophétiques et pleines de sagesses. Au cours d’une semaine, on nous a encouragé à banaliser l’intelligence artificielle, d’accepter que son usage sera généralisé pour le bien commun de l’humanité. L’intelligence artificielle va aider à la transition écologique ! Elle va créer des emplois ! Elle donne accès à plus de services ! Elle va révolutionner l’éducation !

Ne travaillez jamais

Interviewé par Brut, Emmanuel Macron nous assure qu’il y aura de nouveaux emplois, et qu’il faut accepter les « métiers de demain qui seront différents » grâce à l’IA. C’est la même ligne tenue par Clara Chappaz, ministre déléguée à l’intelligence artificielle et au numérique en France, qui assure que les changements liés à l’emploi aboutiront à l’amélioration des conditions de travail. Dans son ouvrage sur le travail du clic, le sociologue Antonio Casilli (En attendant les robots) rappelle pourtant que « le travail ne se laisse pas réduire à l’emploi » et que « la demande de travail humain ne varie pas d’un point de vue quantitatif. C’est sur le plan qualitatif que l’automation a un effet décisif ». En d’autres termes, si création d’emploi il y a, elle serait synonyme d’une précarisation du travail à cause de la dévalorisation des compétences généralement requises dans un emploi affecté par l’automation. Il désigne l’entreprise Uber comme l’exemple parfait de ce phénomène : par l’automation de la prise en charge des clients et des trajets, l’entreprise a facilité l’accès à une activité certes rémunérée, mais pas salariée. Il y a donc plus de chauffeurs, mais ils sont plus isolés (donc, pas syndiqués) face à un algorithme obscur qui pousse à faire toujours plus de courses sur lesquelles l’entreprise prend une large commission. De toute façon, l’objectif à long terme de Uber est de proposer des trajets à bord de véhicule sans chauffeur. Bref, de nouveaux emplois, oui, mais à quel prix ?

Un bot dans le cabinet

Bien parler d’intelligence artificielle implique aussi d’aborder l’enjeu des données et de leur exploitation. En effet, si la première connaît la percée actuelle, c’est grâce à ce que l’on pourrait désigner comme une forme d’accumulation primitive de données. Les travaux respectifs de Cédric Durand (Techno-féodalisme : Critique de l'économie numérique) et Nick Srnicek (Capitalisme de plateforme: l'hégémonie de l'économie numérique) démontrent comment les GAFAMs sont devenus l’infrastructure de l’intelligence artificielle, disposant d’une quantité massive de données issues de nos activités en ligne et parfois hors ligne. C’est pourquoi, quand TF1 nous invite en novembre dernier dans le cabinet d’une médecin généraliste qui réalise sa consultation à l’aide d’un outil de retranscription automatique, il y a de quoi s’interroger. Qu’en est il de la protection des données ? Un·e patient·e peut-iel refuser que sa consultation soit enregistrée ? Nous savons aujourd’hui que la retranscription du language par l’intelligence artificielle est possible grâce notamment à un apprentissage supervisé, où des travailleur·euses annotent et entraînent les modèles de langage à « reconnaître » et retranscrire des conversations. Sur quelles données est entraîné l’outil de retranscription utilisé ? Les données des patient·es servent elles à entraîner l’outil ? Si oui, sous quelles conditions ? C’est Doctolib, aujourd’hui très répandu en France, qui offre ce service au corps médical. Sur la plateforme, l’usage des données de santé sont encadrées et réglementées par l’ANS (Agence Nationale de Santé), mais elles sont aussi hébergées par AWS, le service d’hébergement de données d’Amazon. En 2020, Doctolib a subi une brèche de sécurité compromettant les données des utilisateur·ices, et a reçu en 2021 un Big Brother Award pour sa gestion douteuse des données de santé en Allemagne. Les sujets à couvrir ne manquent donc pas, et il est impératif de le faire afin de saisir les enjeux qui traversent les applications de l’intelligence artificielle en santé. Aux Etats Unis d’Amérique, certains hôpitaux ont utilisé Whisper, un outil de reconnaissance vocale pour automatiser la retranscription de consultations. Problème: des professionnel·les de santé découvrent que l’outil inventait ou ajoutait des éléments aux rapports. Au delà des enjeux de sécurité, on peut donc se demander l’intérêt et l’apport d’un tel outil dans les services de santé. Par exemple, quelles conséquences sur la valorisation des métiers du care dans les cabinets et hôpitaux qui se chargeaient jusqu’à présent de ce type de tâche ? Et sur la qualité des soins apportés aux patient·es ?

En Attendant Les Robots (dir. Nathan Castay, 2023)

Une IA pour les gouverner tous

Face à l’intelligence artificielle, la peur s’invite aussi dans ce spectacle qui met en scène des débats portant sur les crises existentielles face à la machine. On se plaît à imaginer un futur où les machines domineront le monde et où les humains seront asservis. En réalité, il n’y a pas à regarder si loin pour trouver des exemples de subordination algorithmique. Cette peur, elle se manifeste aussi à travers la force étrangère aux allures liberticides, incarnée actuellement par les Etats Unis d’Amérique et la Chine, justifiant ainsi la nécessité de se lancer à corps perdu dans la course à l’innovation dans le but de sécuriser une souveraineté algorithmique. À ce sujet, on constate une logique à géométrie variable de la part de la France avec la présence de l’Inde dans la co-organisation du sommet. A l’instar de la Chine, l’Inde est dotée d’un dispositif national d’identité numérique, Aadhaar. A partir de données biométriques (l’iris des yeux et les empreintes digitales), chaque citoyen·ne est associé·e à une identité unique à 12 chiffres utilisée à la fois à des fins de gouvernances et commerciales. En bref, Aadhaar est un système qui centralise les services publics (rendez-vous médicaux, versement de salaires, déclaration d’impôts, prestations sociales, vote électoral) et des services privés (achats, locations, livraisons…). Sans cet identifiant, il est pratiquement impossible d’exister en tant que citoyen·ne, travailleur·euse, ou consommateur·ice. Si cette numérisation de l’identité a été présentée comme une prouesse de simplification administrative lors de son application en 2012, elle participe désormais à creuser les inégalités chez les populations marginalisés qui, depuis l’accession au pouvoir du premier ministre nationaliste Narendra Modi en 2014, se retrouvent sous une surveillance accrue avec ce système. L’alliance Franco-Indienne le temps d’un sommet sur l’IA n’est donc pas anodine tant les dirigeants français ne cachent pas leurs ambitions en terme de surveillance algorithmique. Le gouvernement français a déployé des tentatives similaires à Aadhaar, notamment avec l’Identité Numérique ou encore Mon Espace Santé, qui avait été vivement critiqué pour ses dangers potentiels à l’égard des patient·es, et notamment les personnes trans.

Chaque paragraphe de cette première édition de Necrodata mériterait d’être un article à part entière. Il y a aussi d’autres enjeux qui auraient mérité autant d’attention : le coût environnemental de l’IA ou encore la place de l’IA dans les écoles. Ils devraient être des sujets démocratiquement discutés et débattus. Le caractère soi-disant révolutionnaire de l’intelligence artificielle pour l’humanité suggère que tout le monde devrait être concerné par ses futures applications. Toujours dans l’entretien sur France Culture, Clara Chappaz explique d’ailleurs que l’application de solutions en lien avec l’intelligence artificielle est avant tout une « tâche collective ». Mais qui a réellement voix au chapitre ? Sous prétexte d’une marche inévitable vers le progrès, c’est l’ensemble de la population qui est tenue éloignée d’une conversation sur un avenir commun. Que nous soyons livreur ou conducteur Uber, étudiant·e, artiste, ouvrier·e, précaire, patient·e ou juste un·e utilisateur·ice d’une plateforme, nous serons affecté·es d’une manière ou d’une autre , un jour ou l’autre, par le traitement algorithmique des données. Si l’intelligence artificielle est réellement faite pour le bien commun, peut être devrions nous avoir notre mot à dire sur son déploiement. Cela ne semble pas être à l’ordre du jour. Les réflexions sur les enjeux démocratiques sont mis de côté au profit de l’innovation, celle qui bouge vite et casse des choses (move fast, break things, selon la célèbre formule de Mark Zuckerberg). Mais si vous n’y comprenez rien, rassurez-vous: l’intelligence artificielle sera légiférée, encadrée et régulée pour éviter les abus. Le philosophe de la technique Jean Vioulac fait la critique de ce relativisme technologique en des termes clairs :

C’est ainsi une niaiserie achevée que d’aborder la question de la technique aujourd’hui en répétant que ce-n’est-pas-la-technique-qui-est-dangereuse-c’est-ce-qu’en-font-les-hommes : une telle approche de la technique est superficielle puisqu’elle manque son statut transcendantal qui prédétermine tout usage, usage en outre conditionné par des rapports sociaux et des impératifs de production. Mais surtout, une telle approche ignore que l’histoire de la technique depuis trois siècles n’est rien d’autre que la mise en place de moyens toujours plus perfectionnés pour automatiser les procédures. (Approche de la criticité : Philosophie, capitalisme, technologie)

Vioulac nous invite à faire preuve de prudence quant à tous les thuriféraires de l’intelligence artificielle. L’IA telle qu’elle nous est présentée aujourd’hui est une technologie faite pour et par le capitalisme. Y voir l’espoir d’un monde meilleur revient à laisser l’avenir entre les mains de ceux qui sont en train de le ruiner.

NECRODATA

Par Necro Data