Le robot thérapeute de Facebook qui sait vous faire parler

par | 2 novembre 2017 | Actualités, Blog, Intelligence Artificielle, Robots

Quand on pense aux différents métiers qui pourraient disparaître du fait de la robotisation, il y a en a un auquel on ne pense en général jamais : le métier de psychothérapeute. Eh bien si ! La preuve en est qu’une entreprise a développé pour le compte de Facebook une intelligence artificielle capable de fonctionner comme psychothérapeute pour les adolescents déprimés. La chose s’appelle Woebot.

Le modèle des thérapies comportementales et cognitives

Son modèle est celui des thérapies comportementales et cognitives (TCC). Comme les thérapeutes appartenant à cette école, il s’adresse aux patients déprimés en essayant de « redresser » les représentations erronées qu’ils sont censés se faire d’eux-mêmes et du monde. Par exemple, si un patient dit : « Personne ne m’apprécie », le thérapeute répond : « Je suis sûr que ce n’est pas vrai, il y a des gens qui vous apprécient, mais vous ne vous en rendez pas compte parce que vous êtes dans un « cycle de pensées négatives ». Réfléchissons ensemble. Il y a bien un domaine dans lequel vous réussissez, etc. » C’est ce qu’on appelle le remodelage cognitif. 
A la différence des psychanalystes, ces thérapeutes ne cherchent donc pas à savoir si une raison particulière a pu distordre le jugement du patient. Ils ne prennent pas non plus en compte le transfert, c’est à dire et la façon dont chaque patient appréhende son thérapeute différemment. Pour eux, tous les thérapeutes bien formés sont censés travailler exactement de la même façon et obtenir les mêmes résultats – bien que certains d’entre eux reconnaissent en privé que leur personnalité intervient dans les réponses du patient à la méthode. La théorie prescrit d’éliminer au maximum les interférences liées aux relations humaines. Le thérapeute n’est rien et le protocole est tout. Les TCC ont en cela remis à la mode la méthode du Docteur Coué : « Levez-vous chaque matin en vous disant : « je suis quelqu’un de bien » et vous vous sentirez de mieux en mieux ». L’objectif est d’inviter le patient à adopter une vision plus positive de son quotidien. Cela marche quand il se le dit à lui-même, et aussi quand c’est un robot qui le lui dit !
Une étude menée auprès de 70 étudiants répartis en deux groupes, dont les résultats ont été publiés en juin (The Journal of Medical Internet Research Mental Health), montre que des échanges menés avec Woebot pendant 15 jours sont plus efficaces que la consultation d’un e-book. La comparaison n’a pas été menée avec un thérapeute réel. Le but était seulement de voir ce qui peut pallier le mieux au manque de thérapeutes, pas de démontrer qu’il faudrait en augmenter le nombre. Cela est en effet exclu pour diverses raisons, dont la budgétaire n’est pas la moindre…

Un robot peut-il être un bon thérapeute ?

Au risque d’étonner, oui, et dans certains cas, un robot peut même être un meilleur thérapeute qu’un humain ! Cela a été démontré aux États-Unis pour les militaires coupables ou honteux d’actes de guerre ayant entraîné la mort de civils innocents. Un avatar numérique sur un écran, appelé « Sim Coach », recueille leurs confidences plus efficacement qu’un humain. Tout d’abord, derrière l’écran de son ordinateur ou de son téléphone, la peur d’être jugé s’estomperait. Il serait plus facile de parler à un algorithme. Par ailleurs, l’avatar n’a jamais de mimiques d’étonnement, et encore moins de réprobation. Il ne court donc pas le risque de renvoyer à son insu au patient la culpabilité ou la honte. C’est dans l’absence d’interférences humaines, c’est-à-dire de projections du thérapeute sur le patient et du patient sur le thérapeute, que résiderait la plus grande efficacité du robot. Mais un tel échange est-il bien vierge de toute projection ? Si celles qui concernent la gêne ou la honte à aborder certains sujets s’estompent, il semble bien que d’autres apparaissent, non moins problématiques…

L’effet Elisa

L’informaticien Joseph Weizenbaum a écrit, dans les années 1960, un programme, baptisé Eliza, qui simulait un psychothérapeute rogerien. Le patient utilisait un clavier pour parler à la machine et celle-ci lui répondait sur un écran. Le programme consistait à reformuler les affirmations de l’interlocuteur sur un mode interrogatif, ou bien à extraire de son affirmation quelques mots qu’il recombinait autrement. Quand Eliza ne trouvait rien dans la phrase précédente qui lui permette de construire une réponse plus adaptée, il écrivait « Je comprends… ». Joseph Weizenbaum se rendit compte que beaucoup d’utilisateurs de cette machine devenaient de plus en plus dépendants émotionnellement de leur relation avec Eliza. Et en plus, ils avaient beau avoir conscience des limites de la programmation d’Eliza, ils ne pouvaient pas s’empêcher de penser que la machine se préoccupait d’eux. Comme le déclara Joseph Weizenbaum, de courtes interactions avec ce programme informatique relativement simple étaient capables d’induire des pensées délirantes chez des personnes pourtant normales ! Les usagers étaient frappés de « dissociation cognitive ». Or si Eliza était capable de tels effets, la relation que nous aurons de plus en plus avec les robots va mobiliser des projections et des croyances bien plus considérables encore.

La capture des données

Mais pourquoi Facebook s’est-il lancé dans cette aventure ? Est-ce parce que la firme a pris conscience de la misère psychologique de beaucoup d’adolescents ? Mais si c’était le cas, pourquoi n’aurait-elle pas décidé de financer l’ouverture de centres de consultations et de prise en charge des souffrances étudiantes sur les campus ? Il suffit ici de rappeler le modèle économique de Facebook pour le comprendre. Cette entreprise vit de la capture des données personnelles de ses usagers qu’elle utilise ou qu’elle revend. Cela assure déjà Woebot de bénéficier de beaucoup d’informations pour poser les bonnes questions à ceux qui décident de l’utiliser : il exploite tout ce que son utilisateur a mis de lui sur Facebook, ou que ses proches ont mis sur lui. Mais les confidences qui lui sont faites constituent en même temps autant de nouvelles données personnelles que Facebook va pouvoir exploiter. Autrement dit, Woebot n’est finalement qu’un râteau plus fin qui va permettre à Facebook de ratisser bien mieux nos données les plus intimes, au risque même d’y agréger des données médicales qui devraient rester confidentielles. Et que va faire Woebot si un étudiant lui confie participer à des viols collectifs ? Et qui sera responsable s’il apparaît que l’utilisation de Woebot aggrave la santé mentale d’un patient ?

Il y a une quinzaine d’années, une publicité pour une grande marque japonaise de produits numériques (Toshiba si ma mémoire est bonne) montrait un samouraï s’approcher d’une geisha qui esquissait un geste de refus en répétant deux fois : « Arrète (suivi du nom de la marque) ». Puis cette image disparaissait et on voyait un écran sur lequel il était écrit : « Rien n’arrête (et le nom de la marque) ». Facebook ne fera évidemment jamais une telle publicité, et pourtant elle correspondrait exactement au viol de nos données personnelles que réalise à son bénéfice le petit soldat Woebot…