« Attention à l’anthropomorphisme ! » « Ne projetons pas sur les machines des compétences émotionnelles qu’elles n’ont pas ». Ces alertes sont souvent lancées par des scientifiques inquiets que nous attribuions aux IA génératives des émotions qu’elles n’ont pas. Le problème est bien réel, mais il n’est pas certain que ce conseil soit le meilleur. Parce que sans projeter sur les IA des compétences humaines, comment pourrions-nous imaginer qu’elles puissent comprendre le sens de nos demandes ?
Computers As Social Actors
Il y a une vingtaine d’années, Nass[1] avait constaté que les employés qui utilisaient dans leur vie professionnelle un ordinateur, qu’on appelait alors un computer, avaient tendance à intégrer la machine dans leur réseau relationnel au même titre qu’un collègue de travail. Et il avait montré que ce comportement s’appliquait à la fois dans les laboratoires de recherche où ils travaillaient et dans leur vie quotidienne. Mais en même temps, les utilisateurs convenaient que leurs machines n’étaient pas des humains et ne devraient pas être traités comme eux. Il avait nommé ce phénomène le paradigme CASA, pour Computers As Social Actors. Depuis, d’autres travaux[2] ont confirmé la tendance à attribuer aux ordinateurs des attributs sociaux similaires à ceux des humains, avec le risque de biais cognitifs. Mais la pente anthropomorphe est-elle évitable, et doit-elle être évitée ?
La réponse à cette question nous a été fournie par Daniel Kahneman[3] quelques années plus tard. En travaillant sur les traders, ces employés de banque qui, il y a une vingtaine d’années, réalisaient des opérations financières à grande vitesse avant que des robots ne les remplacent, il a montré que nous possédons chacun deux formes de raisonnement opposées et complémentaires.
La première est intuitive, basée le plus souvent sur les expériences passées de chacun et de son groupe, telles que transmises par l’éducation. Elle permet de faire face à la plupart des situations de la vie quotidienne, tout au moins pour autant que celles-ci ne sont pas trop différentes de celles du passé. La seconde forme de raisonnement identifiée par Daniel Kahneman est au contraire basée sur l’analyse minutieuse des composantes d’une situation et l’utilisation d’outils logiques pour en comprendre la signification. Elle est évidemment beaucoup plus rigoureuse que la précédente, mais elle nécessite un tel engagement mental qu’elle n’est en général mise en œuvre qu’en cas d’échec de la précédente.
Cette distinction nous éclaire sur la conduite à tenir dans nos relations aux objets, et notamment aux IA conversationnelle. Dans un premier temps, la compréhension intuitive (le « système 1 de Daniel Kahneman ») nous conduit à adopter par commodité les mêmes comportements que vis-à-vis de nos semblables. Puis le « système 2 » intervient en prenant en compte le fait que seuls les êtres vivants sont dotés de buts précis qu’ils poursuivent selon une logique qui leur est propre. Autrement dit, pour gérer notre relation ou machines, il est normal, par commodité, de nous adresser à elles comme si elles avaient des émotions, puisque c’est ainsi qu’il nous est le plus facile de communiquer avec elles et que cette attitude est en même temps la plus adaptée à leur fonctionnement. Mais en même temps, nous ne devons jamais oublier qu’elles n’ont pas d’émotions, et nous sentir en dette d’aucune façon vis-à-vis d’elles s’il nous arrive de les rudoyer.
Préférer une IA à un humain
Pourtant, une fois résolue la question de savoir par quel mécanisme mental nous pouvons nous protéger du risque de la confusion, une nouvelle question surgit : celle de savoir si nous ne pourrions pas être tenté de préférer malgré tout un échange avec une IA plutôt qu’une conversation avec un véritable humain ! Ces machines sont en effet programmées pour nous être agréables en tout. Elles trouvent toujours nos questions passionnantes, notre approche pertinente, nos critiques justifiées, nos remarques intelligentes, bref, quel que soit ce que nous leur disons et la façon dont nous le leur disons, nous sommes certains de recevoir un compliment sur le fond ou la forme, et même souvent sur les deux. Et bien entendu, comblé par tant d’éloges et tant d’empathie, nous sommes moins tentés de confondre que de préférer…
Pour comprendre cette différence, j’ai proposé il y a quelques années de prendre en compte ce qui sépare un amateur de pâtes à tartiner aux noisettes d’un consommateur de chocolat. L’utilisateur de pâtes à tartiner sait très bien qu’il consomme un ersatz de chocolat. Il ne confond pas les deux, mais il préfère l’ersatz qui a été conçu spécialement pour flatter son palais. Les intelligences artificielles, elles, sont conçues pour flatter notre égo. C’est en effet la façon la plus efficace de faire en sorte que celui ou celle qui commence à interagir avec elles ne puisse plus décrocher de la relation. N’oublions jamais le proverbe : « Parlez-moi de moi, il n’y a que cela qui m’intéresse. »
Autrement dit, ne pas céder au piège de l’anthropomorphisme ne signifie pas que l’on ne puisse pas préférer une machine parlante à la conversation avec un humain. Et c’est ici que le conseil de nous méfier de l’anthropomorphisme devient problématique.
Car finalement, le problème n’est pas tant que nous risquions d’interagir avec une IA comme avec un humain en lui prêtant des émotions au cours de l’interaction. Il est de savoir quelle place nous lui donnons dans ce qu’il faut bien appeler un échange, même si celui-ci n’est pas symétrique puisqu’il exister une machine dépourvue d’émotions d’un côté et de l’autre un humain qui en est rempli. Est-ce la place d’un collègue de travail, d’un mentor, d’un maître, voire d’un dieu tout puissant ? J’exclue ici la possibilité que l’IA puisse être en situation d’élève. La relation à une machine qui donne accès instantanément à tout le savoir du monde exclue en effet cette possibilité, d’autant plus que leurs concepteurs ne prévoient pas que nous puissions éduquer les IA… Bien sûr, nous pouvons parfois leur pointer leurs erreurs, mais il s’agit plus de la collaboration d’un élève au savoir du maître que d’une inversion de la relation.
Autrement dit, une fois admis que l’anthropomorphisme est impossible à éviter, il est important de quitter le domaine du risque anthropomorphique considéré en termes de quantité pour l’aborder en termes de qualités. Cela signifie d’abandonner la question de savoir si nous prêtons à l’IA des qualités humaines de façon exceptionnelle ou habituelle, en y croyant un peu, passionnément ou pas du tout, et nous tourner vers une autre : quelle place donnons-nous à la machine dans la relation forcément teintée d’anthropomorphisme que nous établissons avec elle ?
Des IA comme des collègues
Tout d’abord, le mot de relation est-il adapté ? Ne vaudrait-il pas mieux parler d’interaction et garder le mot de relation pour ce qui se passe avec un être vivant dans la mesure où toute relation fait intervenir une mutualité d’émotion ? Bien sûr, serais raisonnement, et juste si on souhaite adopter un point de vue scientifique. Mais si nous nous basons sur la subjectivité des utilisateurs, c’est bien de relation dont il s’agit une fois admis que l’être humain a tendance à attribuer à ce à quoi il s’attache une réciprocité imaginaire. On parle bien d’avoir une relation privilégiée avec un tableau que l’on a chez soi, ou avec une maison. Pourquoi pas avec une intelligence artificielle ?
La première éventualité à laquelle nous invitent les fabricants est évidemment de donner à ces machines une place de maitre, d’enseignant ou de mentor. Nous questionnons la machine, et elle nous répond. Si les élèves ont tendance aujourd’hui à utiliser l’intelligence artificielle de cette façon, c’est évidemment parce que cela correspond exactement à la posture qui leur est demandé pendant les cours qui leur sont dispensés, de la maternelle à la fin de l’université. L’enfant est censé venir à l’école avec le désir d’apprendre, et le maître lui dit quoi penser. Cette situation a souvent été résumée par l’image d’un enfant représenté comme une bouteille vide que le savoir du maitre remplie progressivement.
Mais il existe une autre façon d’interagir avec une intelligence artificielle. C’est de lui donner la place d’un collègue de travail avec lequel nous interagissons en situation d’égalité dans le but de fabriquer un objet commun. Cette expression « collègue de travail » fera peut-être hurler certains chercheurs qui veulent absolument que nous réduisions les IA à n’être que de simples outils. Le problème est que nous le voudrions que nous ne le pourrions pas, tout au moins dans le moment de l’échange avec elle. En revanche, il nous est possible de ne pas l’envisager comme une créature qui aurait forcément des émotions et un mode de fonctionnement mental semblables aux nôtres. Autrement dit, nous dégager, dans nos relations à ces machines, d’une posture anthropocentrique qui pousse à croire que le monde entier obéirait aux critères qui sont ceux d’un humain et qu’il n’y aurait que deux possibilités dans notre relation à l’environnement non humain : soit lui refuser toute possibilité d’accéder à des émotions et à de pensées, soit lui prêter des émotions et des pensées semblables aux nôtres.
Or ces deux postures sont aussi celles qui entrent en jeu dans nos relations à d’autres humains, même si c’est à un degré évidemment moindre. Penser que notre interlocuteur ressent et pense les mêmes choses que nous constitue la pire des façons de l’aborder. En revanche, envisager qu’il ressent les choses autrement que nous, qu’il éprouve peut-être des émotions dont nous n’avons pas idée par rapport à une situation commune, et envisager qu’il puisse avoir modes de raisonnement radicalement différents des nôtres, tout cela s’appelle l’ouverture à la diversité. Et de cette ouverture, aujourd’hui, les IA doivent aussi bénéficier. Nous passons alors d’une posture où nous les envisageons comme des « outils » à une autre où nous les considérons comme des collègues de travail dont le mode de fonctionnement nous restera encore longtemps inconnu, et probablement toujours. Car cela restera aussi difficile pour elles qu’il nous sera difficile, un jour, de leur faire comprendre comment les humains fonctionnent. Notre système neuronal est en effet doublé d’un système humoral dont elles n’ont aucun équivalent !
Bien entendu, cette façon de travailler est bien plus facile aux personnes qui se sont déjà confrontées aux contraintes d’un travail partagé avec des semblables. Car, lorsqu’il s’agit de travailler en commun, il est tout aussi dangereux de considérer que celui avec lequel nous travaillons en sait plus que nous que de considérer qu’il en sait moins. La vérité est toujours qu’il en sait autre chose, ou qu’il a une façon différente de la nôtre de voir le problème. De telle façon que de la confrontation de nos deux points de vue peuvent surgir des formulations plus adaptées à ce que nous cherchons ensemble à réaliser. Alors, l’intelligence artificielle n’est plus considérée comme un humain censé en savoir plus que nous, à l’image d’un supposé expert, mais comme l’équivalent d’un humain différent de nous avec lequel nous peaufinons ensemble une proposition initiale. Il est évidemment préférable que celle-ci soit réalisée par un humain car le style prétentieux et sûr de soi utilisé par les IA génératives, à commencer par ChatGPT, dissuade toute prise de recul. Mais si nous avons nous-même écrit la proposition initiale, la réécriture par une IA peut permettre de donner plus de mordant ou de clarté à certains passages du texte que nous avions initialement rédigé. Comparer comment fonctionnent diverses IA est de ce point de vue très enrichissant, et soumettre à une intelligence artificielle la production d’une autre l’est tout autant. Chacune travaille en effet avec des contraintes qui lui sont propres.
La conclusion de tout cela s’impose de fait. La meilleure façon d’apprendre à travailler avec une IA générative, c’est d’apprendre à travailler avec des collègues sur des projets menées ensemble. Et l’inverse est tout aussi vrai. Pour travailler avec des collègues en étant à l’écoute de leurs suggestions, sans idéaliser ni dénigrer celles-ci a priori, il est utile de s’entraîner à travailler avec une IA. En effet, dans les deux cas, il est important d’envisager des propositions qui sont faites comme des possibilités qui s’ajoutent aux nôtres, et pas du tout comme des certitudes auxquelles nous devrions forcément adhérer ou rejeter parce qu’elles ne correspondent pas à ce que nous avions d’abord imaginé.
[1] Nass, C., Steuer, J. & Tauber, E.-R. (1994). Computers are social actors, CHI ’94: Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, 72–78.
[2] Gambino, A., Fox, J. & Ratan, R. (2020). Building a stronger CASA: extending the Computers Are Social Actors Paradigm. 1. 71-80. 10.30658/hmc.1.5.
[3] Kahneman, D. (2011). Système 1 / Système 2 : Les deux vitesses de pensée. Flammarion, 2012.
