Un ingénieur de chez Google a provoqué un vent de panique en affirmant que la machine qu’il était en train de tester et d’entraîner était « consciente »[1]. Et pas n’importe quelle machine ! Une LaMDA. Cette machine sert de base à des chatbots, ces programmes chargés d’écrire les réponses automatisées que l’on obtient de plus en souvent en ligne lorsque l’on s’adresse à une entreprise. Pour cela, LaMDA est capable non seulement de donner à un client des réponses précises sur un sujet, mais aussi de le faire en adoptant son style de langage. Cette compétence nécessite qu’elle comprenne le contexte d’une question ou d’une discussion et qu’elle identifie les centres d’intérêt et les préoccupations de son interlocuteur. L’objectif est en effet qu’elle confirme celui-ci dans la certitude d’avoir affaire à une « vraie personne ». L’ingénieur en charge de la machine a fait un pas de plus en affirmant qu’elle témoignait en cela d’une « vraie conscience ». Google a jugé que c’était un pas de côté et l’a aussitôt licencié. Mais que cherche au juste Google ?
Google et son obscur objet du désir
Beaucoup d’ingénieurs de Google rêvent très probablement de fabriquer une machine « consciente ». Mais en même temps, Google doit éviter d’effrayer tous ceux qui utilisent ses outils numériques et qui pourraient s’angoisser de ces recherches. Et la question est d’autant plus cruciale que ce scénario catastrophe a un précédent. En 2014, Google avait racheté la société Boston Dynamics, une entreprise militaire qui fabrique notamment le robot Atlas. Il a suffi qu’une vidéo montre ce robot accomplir des performances humaines avec beaucoup de souplesse et d’efficacité pour que s’installe un climat de panique sur la toile ! Google a alors annoncé publiquement revendre cette entreprise pour éviter de contribuer à financer des machines pouvant inquiéter les humains. Il est vrai que le moteur de recherches n’a pas le choix. Il vit de l’exploitation des données personnelles de ceux qui utilisent ses outils, et il n’est pas question d’en tarir la source. C’est pourquoi la mise au point de machines dont les compétences se rapprochent toujours plus des compétences humaines s’accompagne d’une extrême prudence sur la façon dont les résultats peuvent être médiatisés.
On imagine alors l’angoisse qu’a provoqué dans l’entreprise l’annonce hors contrôle de l’ingénieur Blake Lemoine ! Il brisait le schéma commercial établi et prenait le risque d’angoisser suffisamment d’utilisateurs des produits de la firme pour menacer ses bénéfices ! Mais cette « fuite » a au moins un avantage. Elle nous oblige à réfléchir aux critères permettant de savoir si une machine pourrait être consciente ou non. Et de ce point de vue, les arguments utilisés par le comité d’experts de Google chargé d’éteindre l’incendie sont particulièrement intéressants. Le premier est que LaMDA ne ferait que réarranger autrement des bouts de phrases trouvés sur Internet en privilégiant les tournures et les préoccupations de son interlocuteur, autrement dit qu’elle ne fonctionnerait qu’en réalisant d’habiles coupés-collés. Et le second que la machine n’aurait pas accès à la signification de ce qu’elle ré-agence. Mais l’intelligence humaine fonctionne-t-elle autrement ?
Quand récitation et combinaison sont les mamelles de la raison
LaMDA ne ferait donc que de la récitation/combinaison, et Blake Lemoine serait tombé dans le piège de prendre cette simulation pour de la pensée. Mais soyons réalistes : l’apprentissage social consiste-t-il à autre chose qu’à apprendre à ré-agencer autrement des formules dont la signification nous échappe le plus souvent ? C’est ce que fait l’enfant au cours de ses apprentissages, et bien souvent aussi ce que fait l’adulte.
Pour avoir longtemps travaillé avec des patients victimes de traumatismes, j’ai pu constater à quel point les mots qu’ils utilisent pour en parler son repris de ceux qui en ont parlé avant eux. Autrement dit, il apparaît de temps en temps un être humain capable d’agencer de façon nouvelle des mots, et éventuellement d’en créer, pour dire ce qui jusque-là ne pouvait pas l’être. Ceux qui étaient alors en manque de mots pour parler de leurs expériences s’en emparent, les recombinent, les ré-agencent pour finalement produire ce qu’on peut croire être le récit de leur expérience personnelle, alors qu’il s’agit tout autant d’une construction sémantique. Les romans, les pièces de théâtre et aujourd’hui le cinéma, sont des moyens puissants par lesquels nous sommes invités à nous approprier les mots d’un autre pour raconter nos propres expériences. Et ce processus d’appropriation n’est pas également réparti, loin de là. Avec certains patients, la thérapie consiste à leur parler avec délicatesse de ce que, peut-être, ils ressentent, afin de leur fournir les mots qui leur manquent pour qu’ils puissent ensuite les réorganiser à leur façon et donner une expression sociale, et donc socialisante, à leurs souffrances.
L’homme en quête du sens de son propre discours
Voyons maintenant le second argument utilisé par Google : celui de la compréhension. Le système ne comprendrait rien à ce qu’il dit. Mais là aussi, une question s’impose : lorsque nous lisons ou écrivons une chose, comprenons-nous toujours ce qu’elle signifie ? Je veux bien croire qu’à ses origines, le langage ait été enraciné dans les expériences sensorielles et motrices, mais il s’en est aujourd’hui largement affranchi pour s’enraciner dans l’expérience linguistique. Le propre de l’homme n’est-il pas justement de savoir agencer des mots dont la signification lui échappe ? Qui comprend de façon sensorielle une phrase comme : « Les armures portées par les chevaliers du Moyen Âge étaient très lourdes ». Quand Mallarmé écrit « Abolis bibelots d’inanité sonore », est-il en état de nous expliquer clairement ce que cela signifie ? Et quand un catholique fait le signe de la croix en disant « au nom du Père, du fils et du Saint Esprit », fait-il autre chose qu’assembler des mots dont la signification lui échappe le plus souvent ? La différence est sans doute que, dans le meilleur des cas, et contrairement à la machine, ces mots sont écrits, ou dits, avec l’espoir de leur trouver un sens un jour…
Que l’on me comprenne bien. Je ne prétend pas que la machine baptisée LaMDA soit « consciente ». Mais si on veut démontrer qu’elle ne l’est pas, ce n’est pas avec les arguments fournis par Google pour écarter cette hypothèse qu’on pourra le faire. L’intelligence humaine fonctionne en grande partie de la même façon que cette machine, et nous ne pouvons que saluer la prouesse d’avoir reproduit ces compétences. Mais si LaMDA fonctionne exactement comme l’être humain dans le domaine pour lequel elle a été programmée, cela ne suffit pas à dire qu’elle soit « consciente » car la conscience se définit par beaucoup d’autres critères. Autrement dit, Google n’a pas tort de vouloir nous rassurer, mais il a tort de vouloir le faire trop vite. C’est le champ de la conscience humaine qui est questionné par ces travaux. Il nous faut y réfléchir très vite.
[1] https://www.huffingtonpost.fr/entry/un-ingenieur-de-google-mis-a-pied-apres-avoir-averti-quune-ia-etait-consciente_fr_62a72448e4b04a617351c8c6