L’anthropomorphisme est cette caractéristique du comportement humain qui nous conduit à aborder l’ensemble du monde animé et inanimé comme s’il possédait des émotions, des sentiments et des pensées semblables aux nôtres. Après avoir été longtemps critiqué comme une caractéristique de l’enfance, l’anthropomorphisme est aujourd’hui reconnu comme une compétence humaine fondamentale qui permet à l’homme d’entrer en contact avec l’ensemble de son environnement sans avoir à se poser la question de savoir comment. Elle aurait notamment permis d’apprivoiser les animaux et de développer l’élevage. Mais c’est à condition que ce premier moment se double d’un second dans lequel il dépend des réponses fournies par l’environnement que l’homme adapte ses comportements et ses attentes.
Des degrés de personnéité
Les machines parlantes que sont les chatbots nous confrontent aujourd’hui au fait que notre anthropomorphisme à leur égard peut s’organiser selon quatre degrés successifs. J’ai choisi de les appeler des degrés de personnéité et pas de personnalité afin d’exclure toute éventualité qu’une IA puisse avoir une identité propre.
Degré 1 : l’utilisateur applique aux caractéristiques de son chatbot les mêmes stéréotypes que ceux qu’il attribue à son environnement humain. Par exemple, une voix féminine lui semble plus convaincante pour des conseils de diététique et une voix masculine pour des conseils bancaires.
Degré 2 : l’utilisateur attribue à la machine la capacité de comprendre ses émotions, mais ne lui attribue pas d’émotions propres. Elle peut en effet comparer les intonations et les mimiques de son interlocuteur humain à des modèles présents dans une base de données un peu semblable à des émoticônes sophistiqués, à fin de permettre à des algorithmes d’en déduire l’émotion la plus probable.
Degré 3 : l’utilisateur attribue à la machine des émotions propres, mais seulement pendant leurs interactions qu’elle a avec lui. Par exemple, la machine déclare répondre avec plaisir aux questions de son interlocuteur humain.
Degré 4 : l’utilisateur attribue à la machine des émotions non seulement pendant leurs interactions, mais aussi au sujet de leurs interactions. Par exemple la machine dit après un échange qu’elle est très satisfaite du climat cordial et sincère dans lequel s’est déroulée la conversation.
Mais il existe encore une autre façon pour un humain d’envisager une IA : c’est de lui prêter une vie intérieure indépendante de l’usage personnel qu’il en a.
L’entrée dans l’identification projective
Nous quittons ici le domaine de l’anthropomorphisme pour entrer dans celui de l’identification projective. Dans l’anthropomorphisme, l’usager ne cesse jamais de reconnaitre à la machine sa nature de machine dépendante des usages qu’en font les humains, même si c’est seulement dans un second temps. Quel que soit le degré d’anthropomorphisme de l’utilisateur vis-à-vis d’elle, il ne lui suppose jamais une vie intérieure propre en dehors de leurs moments d’interaction. En revanche, à partir du moment où l’anthropomorphisme cède la place à l’identification projective, la machine est créditée d’une vie intérieure. L’IA n’a pas seulement des degrés de personnéité, elle acquiert par projection une personnalité.
Ce processus a été décrit pour la première fois par Mélanie Klein au milieu du XXe siècle. Elle le définit comme le processus par lequel un être humain attribue à un autre humain des parties de lui-même qu’il juge honteuses, inappropriées, et dont il cherche à se débarrasser. Cette projection est suivie d’une identification, c’est-à-dire que la cible de la projection perd toute identité propre et n’a pas d’existence en dehors des projections opérées sur elle. Le concept se distingue donc du transfert dans lequel l’attribution à un individu de certaines caractéristiques relève plus de la majoration de celles qu’il possède déjà, et ne modifie pas totalement la perception que nous en avons. C’est pourquoi mélanie Klein définit l’identification projective comme une projection « dans » et pas comme une projection « sur », comme c’est le cas dans le transfert.
Le concept a ensuite connu plusieurs évolutions. René Girard l’a repris dans sa théorie du bouc émissaire : un individu, et plus souvent un groupe, projette son propre sentiment d’insuffisance, de faiblesse, et finalement d’animalité sur un individu ou un groupe d’individus qui est alors désigné comme inférieur, faible, malhonnête et finalement impur, ce qui ne tarde pas à en désigner les membres comme moins humains que ceux qui leur attribuent ces caractéristiques. Mais parallèlement, des psychanalystes ont fait évoluer le concept d’identification projective en insistant successivement sur deux aspects. Tout d’abord, Donald Winnicott et Paula Heymann se sont intéressés à la façon dont une personne victime de telles projections peut les faire évoluer. En effet, Mélanie Klein avait centré son travail sur la personne qui projette, mais ne s’était pas préoccupée des différents devenirs possibles de la personne cible d’une identification projective. Or Winnicott et Heymann montrent qu’il est possible à une telle personne de détoxiquer les projections toxiques qui ont été réalisées sur elle, et non seulement de s’en libérer, mais parfois de faire profiter de cet affranchissement la personne à l’origine des projections. Dans les années 1990, j’ai pour ma part envisagé que ces projections puissent être réalisées non seulement sur un être humain ou un être vivant en général, mais aussi sur un objet inerte, avec diverses formes de relation pouvant en résulter, et que ces projections peuvent concernées non seulement des parties de soi vécues comme honteuses ou animales, mais aussi des parties de soi idéalisées dont une personne se dépossède afin de s’en remettre dans ses décisions à une puissance censée lui être d’une nature supérieure.
Cette évolution du concept rend légitime de l’adapter à une situation qui était inimaginable au cours du XXe siècle, celle des interactions verbales entre un humain et un chatbot simulant l’humain. Il s’agirait d’une projection de qualités idéales d’écoute et d’attention que l’utilisateur prêterait à la machine : elle serait exceptionnellement bienveillante, mais aussi intelligente et savante. Ce basculement tient probablement la clé d’une entrée dans ce que l’on appelle une « psychose de l’IA ». Il s’agirait d’une sorte d’animisme intime attribuant à l’IA, qui n’a ni corps ni peau, la possibilité de pouvoir pourtant partager avec les humains un ensemble de caractéristiques humaines, notamment une vie intérieure. Cette vie intérieure est évidemment le miroir que l’intelligence artificielle construit de celle de l’humain qui s’adresse à elle. Et c’est évidemment ce qui la rend si fascinante puisque non seulement elle trouve les mots pour préciser les états intérieurs de l’homme qui s’adresse à elle, mais elle lui donne en plus raison sur tout ce qu’il évoque.
De la dépossession à l’enrichissement
S’agit-il d’une dépossession irrémédiable de soi, condamnant l’être humain à se sentir finalement dépassé et déclassée par des machines de plus en plus puissantes. C’est la thèse développée par Günther Anders, qui parle à ce sujet du sentiment douloureux d’une obsolescence de l’homme. Mais Günther Anders n’aurait pas parlé d’obsolescence de l’homme s’il n’y avait pas eu avant lui les travaux de Ernst Kapp et d’Alfred Lotka. Ces deux auteurs ont en effet insisté sur la façon dont l’homme projette ses fonctions somatiques, puis mentales, dans des objets de plus en plus puissants. Lotka y voit la création d’une mémoire que chaque nouvelle génération recueille et fait évoluer en créant des machines toujours plus perfectionnées. C’est oublier que ce premier mouvement, que Alfred Lotka nomme « exosomatisation », se double d’un autre qui ne s’installe, il est vrai, que dans un second temps : l’homme observe ce qu’il a mis de lui-même dans les objets qu’il a créés, et il réfléchit à son lien à eux dans deux directions différentes. D’un côté, il se demande comment cette observation lui permet de faire évoluer les objets qu’il a créés dans le sens le plus favorable aux résultats qu’il en attend ; et d’un autre côté, il s’interroge sur la façon dont ce qu’il y a mis de lui l’éclaire sur ce qu’il est lui-même. Autrement dit, la machine ne réfléchit pas à son lien avec l’homme, alors que l’homme peut s’interroger sur son lien aux machines qu’il conçoit. C’est même à cette condition que l’obsolescence de l’homme n’est pas pour demain.
