Necrodata #2 : Les androïdes rêvent-ils d’EMDR ?

Aujourd’hui, on parle de la compétition entre les humains et l’IA, de ses implications pour notre quotidien et notre ✨santé mentale✨

NECRODATA
4 min ⋅ 11/03/2025

Régulièrement, des études en sciences cognitives déclarent que les machines surpassent désormais les humains dans des domaines qu’on associait jusqu’à maintenant à l’intelligence humaine (l’empathie, la créativité ou la résolution de conflits). En mars 2016, la victoire au jeu de Go d’une machine contre le champion du monde, Lee Sedol, marque une percée significative du machine learning (c’est à dire l’apprentissage auto-supervisé d’une machine à partir d’une base de données). Plus particulièrement, la machine avait inventé des coups que Sedol avait qualifié de « créatifs ». Or, la machine avait été entraînée à partir de 30 millions de parties de Go. Au cours de sa carrière, Lee Sedol en avait seulement joué 50, 000. Molly J. Crockett, chercheuse en sciences cognitives à l’université Stanford, a écrit dans le Guardian le mois dernier au sujet des capacités soi-disant spectaculaires de l’intelligence artificielle. Elle appelle à faire preuve de prudence et de discernement quant aux arguments fallacieux et à la mise en compétition des humains contre les machines. En mettant les humains dans des conditions où seules les machines peuvent exceller, on demande aux humains de se comporter et de penser comme des machines. Pour Allison Pugh, chercheuse à l’université John Hopkins, cette démarche dépasse le monde scientifique, et elle aurait des conséquences concrètes sur notre quotidien. Pour justifier l’usage de l’intelligence artificielle dans certains domaines tels que l’éducation, le soin, ou encore l’administration, on présente l’intelligence artificielle comme « mieux que rien » dans certains cas, et « mieux que les humains » dans d’autres. Cet excès de rationalisation donnerait lieu à une « crise de la dépersonnalisation ». En bref, les individus se sentent non seulement seul·es, mais aussi invisibles aux yeux de la société et des autres.

Mieux que rien ?

Les enjeux de santé mentale à l’heure de l’intelligence artificielle illustre parfaitement ces deux approches mobilisées par le techno-solutionnisme. A ce titre, des entreprises comme Heartfelt Services, Earkick ou encore Woebot se spécialisent dans le service de thérapie virtuelle. Des articles évoquent aussi la « béquille émotionnelle » des assistants virtuels pour les personnes ayant besoin d’une oreille attentive. L’argument généralement avancé est qu’un assistant virtuel coûte moins cher qu’une thérapie, et qu’il est toujours disponible. C’est « mieux que rien ». Il est pourtant difficile d’ignorer le fait que les enjeux ici sont plus profonds : pourquoi une personne est-elle isolée au point qu’un assistant virtuel apparaît comme la meilleure option possible (un·e proche, un·e ami·e, un·e partenaire) ? Dans des cas plus sérieux, pourquoi une personne ne trouve pas un parcours de soin approprié à ses besoins ? Y-a-t-il des modalités de remboursement à mettre en place ? Y-a-t-il un manque de soignant·es ? Si oui, comment y remédier ? Dans un article publié dans The Baffler, intitulé « The Therapist in the Machine », Jess McAllen apporte des éléments de réponses supplémentaires quant à l’argument du « mieux que rien ». Il souligne le caractère dangereux de la disponibilité illimité des assistants virtuels. Une séance de thérapie est sensée être porteuse de sens, le temps laissé entre chaque séance est un moment auto-réflexif pour les patient·es. Si l’écoute inépuisable de l’assistant virtuel est présentée comme un avantage, McAllen souligne que le but de la thérapie n’est pas d’en devenir dépendant·e, mais au contraire de retrouver une forme d’autonomie. Autrement dit, le but de la thérapie, c’est de ne plus en avoir besoin.

Mieux que les humains ?

Une étude récente estime que les humains trouveraient l’écoute d’un assistant virtuel plus « sympathique » que celle d’un humain. Allison Pugh rapporte également l’absence de jugement comme une raison qui motiverait l’usage des assistants virtuels. C’est à dire qu’un·e professionnel·le humain est plus susceptible d’adopter une posture morale quant aux problèmes rencontrés par un·e patient·e. Les machines seraient donc « meilleures que les humains » dans la mesure où leur écoute est jugée plus qualitative, car libérée de tout jugement moral. Pourtant, Pugh s’interroge : comment se libérer d’une peur ou de la honte si on ne s’y confronte pas face à un autre humain ? Par ailleurs, Jess McAllen pointe la nature des problèmes que les assistants virtuels sont en mesure de prendre en main. Pour le dire simplement, une séparation, un licenciement, ou une petite dépression saisonnière sont des problèmes du quotidien que les assistants virtuels peuvent « gérer », car ils représentent des problèmes facile à prédire par une machine.

Joaquin Phoenix et sa béquille émotionnelle dans Her (dir. Spike Jonze, 2013)Joaquin Phoenix et sa béquille émotionnelle dans Her (dir. Spike Jonze, 2013)

Si ces assistants virtuels ne prétendent pas offrir une solution à tous les enjeux de santé mentale, ils reproduisent (et renforcent) malgré tout une dynamique qui existent déjà. Nous savons que les violences systémiques (telles que le racisme ou la transphobie) affectent la santé mentale, et ces mêmes violences traversent également le corps médical. Cela se traduit soit par un risque de sous-diagnostic des troubles mentaux, ou d’une hospitalisation forcée et violente. Les assistants virtuels de thérapie représentent donc une double peine pour les personnes marginalisées. Elles se retrouvent prises dans les angles morts d’un techno-solutionnisme qui, de fait, ne solutionne rien…

Les entreprises tech justifient leur existence en nous promettant des solutions — dont nous n’avons pas besoin — à des problèmes sociaux qu’elles ne savent/peuvent pas résoudre. Actuellement, l’intégralité des assistants virtuels en thérapie sont des produits distribués par des entreprises privées. On peut voir en quoi l’idée d’une fin de thérapie, évoquée ci-dessus, constitue un problème pour une compagnie privée dont l’objectif est généralement de maximiser ses profits. Ces entreprises ne mettent pas le soin à disposition, elles en font une marchandise. Elles font de l’écoute un produit, que l’on paye sous forme d’abonnement, ou par la collecte de données. En voulant résoudre l’isolement social par plus d’isolement social, le techno-solutionnisme produit en réalité le poison et le remède.

NECRODATA

Par Necro Data