L’intelligence artificielle (IA) générative fascine autant qu’elle déroute. Ceux qui la conçoivent entretiennent d’ailleurs volontiers le mystère. Bien souvent, ils affirment ne pas savoir ce qui se passe exactement entre l’entrée (le prompt de l’utilisateur) et la sortie (la réponse produite). Cette incertitude est parfois justifiée par le fait que ces IA fonctionnent avec des algorithmes si complexes qu’ils échappent à toute forme d’explication : on dit pour cette raison que ce sont des boites noires. Les erreurs, les inventions ou les absurdités qu’elles produisent sont appelées des « hallucinations ». Le terme semble avoir été choisi pour désarmer la critique : il introduit une métaphore clinique, ce qui laisse entendre que ce fonctionnement instable serait une nouvelle preuve de la proximité de la machine avec un être humain. Le modèle anthropomorphe de l’intelligence artificielle s’en trouve renforcé.
Mais si l’on accepte de penser l’IA comme un « esprit artificiel », pourquoi ne pas tenter de lui appliquer les outils qui nous servent à penser l’esprit humain ? Or le modèle métapsychologique proposé par Freud semble proposer un cadre conceptuel intéressant. Car après tout, l’IA générative a été pensée pour simuler une conversation humaine. Autrement dit, sa matière première est le langage et pour Freud, celui-ci témoigne des processus psychiques sous-jacents. Essayons alors d’appliquer ce modèle à l’IA. Nous allons voir que ce rapprochement éclaire certains de ses fonctionnements, et pourrait bien jouer un rôle dans les fantasmes qu’elle suscite.
Une architecture freudienne à trois niveaux
À la fin du XIXe siècle, Freud propose un premier modèle du fonctionnement psychique organisé autour de trois pôles, l’inconscient, le préconscient et le conscient. En 1923, il complète et enrichie cette première métapsychologie par une seconde opposant le Ça, le Moi, le Surmoi. Il le fait en prenant en compte trois points de vue complémentaires. Le point de vue topique rend compte du fait que le fonctionnement psychique peut être pensé en termes de territoires et de systèmes. Le point de vue économique tente de comprendre l’énergie psychique qui circule dans chacun des systèmes et entre les systèmes. Enfin, le point de vue dynamique concerne l’étude des conflits possibles entre systèmes et des forces qui les régulent. L’appareil psychique, dont il est souvent dit, à juste titre, que son modèle avait été pour Freud celui de la machine à vapeur, fonctionne grâce à l’énergie qui le traverse et à un jeu de forces et de conflits aboutissant à nos productions mentales.
Le Ça est inconscient. Il constitue le siège des désirs et des pulsions refoulées, mais aussi d’expériences traumatiques conservées à l’état de traces mnésiques associées aux sensations et aux émotions vécues au moment du traumatisme.
Le Surmoi est également inconscient. Il représente la conscience morale et l’intériorisation des interdits de l’enfance, et agit comme un juge censeur qui filtre et transforme ce qui remonte du ça pour lui donner une forme acceptable.
Quant au Moi, il inclut le préconscient, qui est l’ensemble de ce qui est disponible à la conscience mais non actualisé, et le conscient qui représente ce qui est actualisé à chaque instant, et qui tient compte à la fois des désirs présents dans le Ça, des injonctions du Surmoi et de la réalité. Car tout ce qui est désiré et autorisé n’est pas forcément réalisable.
IA connexionniste et IA symbolique
L’IA générative a elle aussi une architecture propre. Elle repose sur l’articulation de deux approches technologiques majeures : le connexionnisme et le symbolisme.
L’IA connexionniste est à base de réseaux de neurones. Elle permet de générer des contenus à partir d’un modèle statistique et probabiliste de langage. Elle génère des contenus mot à mot en fonction du prompt de l’utilisateur et de son modèle de langage statistique et probabiliste. Celui-ci a été entrainé sur des données linguistiques en masse. Toute ce que les humains ont déposé sur la toile, notamment tout wikipedia, mais aussi dans la presse et la littérature auxquelles elle a accès, jusqu’à une certaine date. C’est pourquoi ses immenses bases de données textuelles – les fameux big data – doivent être mises à jour régulièrement. Les algorithmes n’ont en effet pas encore accès en temps réel aux données. Celles auxquelles ils ont accès peuvent donc être obsolètes bien que des technologies nouvelles tentent aujourd’hui de lutter contre cette obsolescence des données d’entraînement[1]. Lorsqu’on interroge une IA générative, l’IA connexionniste calcule donc la suite la plus probable à partir du prompt de l’utilisateur. Elle le fait sur la base d’algorithmes appelés Transformers, qui ont analysé un vaste ensemble de données disponibles par itérations successives jusqu’à trouver les règles de corrélation les plus probables qui les unissent. Il s’agit donc d’un modèle de génération de langage a posteriori, c’est-à-dire issu de l’analyse du corpus de données. Le résultat peut parfois être brillant, mais aussi souvent biaisé par les données disponibles, stéréotypé, voire absurde ou problématique.
C’est là que l’IA symbolique intervient. Elle régule les contenus de l’IA connexionniste avant de les rendre publics. Pour cela, elle fonctionne avec d’autres algorithmes et repose sur des règles explicites définies a priori par les humains qui l’ont conçue. Elle intervient en aval de l’IA connexionniste pour filtrer, reformuler ou bloquer certaines productions jugées inappropriées : propos haineux, contenus illicites, informations sensibles, etc.
Les interventions des interlocuteurs sont intégrées dans le fonctionnement de la machine : s’ils sont satisfaits de la réponse donnée par l’IA, leur approbation fonctionne comme un feed back positif et le modèle enregistre que la réponse est valide. Ce qui accroît la pertinence de la réponse du modèle. Mais si la réponse donnée par l’IA est fausse et que l’interlocuteur humain s’en contente sans la vérifier et déclare qu’elle lui convient, des réponses fausses peuvent ensuite être données à des interlocuteurs posant la même question. C’est pour cela que Google demande de vérifier les réponses données par Gemini : ce n’est pas seulement pour éviter que les interlocuteurs de son IA croient vraies des réponses fausses. C’est pour éviter que Gemini enregistre comme valides des réponses fausses non vérifiées. C’est ce qui m’est arrivé avec ChatGPT. Confronté à une réponse fausse, je lui ai demandé comment il pouvait expliquer son erreur. Parmi les réponses qu’il m’a faites, il y avait en substance celle-ci : « un jour, quelqu’un a dit que cela était vrai. »
Le modèle freudien et l’intelligence artificielle
Tentons maintenant un rapprochement de ce modèle avec la seconde topique freudienne, celle qui oppose le ça, le surmoi et le moi.
L’IA connexionniste fonctionne comme un Ça technologique
Toute la conscience du monde est déposée sur Internet, mais aussi tous les contenus illicites, interdits par la tradition, la bienséance ou la loi, et/ou possiblement traumatiques. L’ensemble de ces données et l’équivalents de l’inconscient humain. On y trouve des représentations de désir qui peuvent choquer la conscience, voire opposées à la loi comme les représentations pédo pornographiques. Mais on n’y trouve aussi des représentations d’extrême violence qui peuvent renvoyer à des contenus traumatiques. Ce sont exactement les deux types de représentations présentes dans l’inconscient humain : celles qui sont chassées de la conscience par la censure et celles qui correspondent à des vécus traumatiques non élaborés. Car si tout ce qui est refoulé se trouve dans l’inconscient, tout ce qui se trouve dans l’inconscient ne résulte pas forcément du refoulement : une partie peut résulter du clivage de représentations inacceptables par le moi parce qu’elles lui font courir un risque d’effraction et d’effondrement.
L’IA connexionniste puise dans l’immense inconscient numérique constitué par Internet en appliquant des règles de combinaison probabiliste. Les messages qui tombent sous le coup de la loi ou ceux qui sont seulement inconvenants et peuvent choquer la conscience de l’utilisateur sont rejetés. Mais elle peut produire aussi des messages absurdes, voire incompréhensibles. Des mots s’entraînent les uns les autres sans aucun lien avec aucune réalité. On les appelle des hallucinations. En clinique, ce mot désigne des productions mentales qui n’ont pas d’autre support de réalité que des sensations vécues par un patient et pour lesquels il tente de trouver des explications. La machine n’a pas de sensation puisqu’elle n’a pas de corps et pas de sensibilité. Elle ne peut donc pas avoir des hallucinations comme un sujet humain. En revanche, elle peut enchaîner mécaniquement des signifiants, générant des phrases plausibles mais dénuées de référence. L’approche de Clérambault qui explique les hallucinations humaines en termes d’automatisme mental semble en revanche constituer un bon modèle pour expliquer les hallucinations de l’intelligence artificielle. Ces contenus absurdes relèveraient d’une sorte d’automatisme mental comme décrit par l’aliéniste Gaétan Gatian de Clérambault dans la première moitié du XXe siècle.
- L’IA symbolique fonctionne comme un Surmoi algorithmique
Comme le Surmoi freudien qui n’éradique pas les contenus pulsionnels inacceptables par le moi, mais les bloque ou change leur expression, l’IA symbolique censure et normalise afin d’empêcher la remontée de contenus inacceptables dans les énoncés produits par l’IA générative. C’est pourquoi elle est dite régulatrice. Si elle fonctionne bien comme un Surmoi, c’est en revanche un Surmoi éditorialisé : les règles qu’elle applique ne sont pas universelles, elles reflètent les priorités idéologiques et économiques de ceux qui la programment. Ce n’est donc pas l’IA elle-même qui juge : ce sont les humains qui décident ce qui peut être dit ou non. C’est ce qui explique que ce ne sont pas les mêmes contenus qui sont filtrés par l’IA symbolique nord-américaine et l’IA symbolique chinoise. Ils le sont chaque fois en fonction de normes culturelles, juridiques et politiques différentes. Ainsi, l’IA nord-américaine filtre peu les contenus liés à la sexualité ou au narcissisme, mais bloque les discours haineux ou les instructions dangereuses, tandis que l’IA chinoise censure les critiques politiques et les appels à la contestation, tout en étant plus permissive sur d’autres sujets.
Le fait qu’elle intervienne une fois terminé le travail de l’IA connexionniste pourrait expliquer que dans une question concernant Tien Amen posée à Deep Seek en octobre 2024, l’IA connexionniste ait commencé par donner une réponse, puis que l’IA symbolique l’ait bloque avant que la réponse ne soit terminée[2]. Une particularité probablement due au fait que l’intelligence artificielle symbolique ne disposait pas (encore ?) d’une ou de plusieurs règles suffisamment généralisantes pour réguler toute formulation de prompt concernant le sujet Tien Amen.
Dans le modèle freudien, le surmoi empêche ces représentations d’arriver à la conscience, mais il n’empêche ni le retour du refoulé, ni les diverses formes de création qui permette de travestir les contenus non tolérés. C’est exactement la même chose avec le filtrage de l’IA symbolique : il peut être contourné. En demandant à l’IA de produire un scénario de fiction ou une blague, l’utilisateur peut obtenir des contenus qu’elle aurait normalement censurés. Revenons à l’exemple de Tiananmen. Bien que Deep Seek ait refusé de répondre sur Tien Amen, il a accepté de communiquer des informations à partir du moment où l’objectif était de faire un scénario animalier avec des fourmis. A ce moment-là, l’IA symbolique laissait passer des informations. Le même phénomène avait été observé au moment du lancement de ChatGPT qui pouvait donner la méthode de fabrication d’une bombe à condition de lui expliquer que c’était pour nourrir un roman que l’on était en train d’écrire. Finalement, les contenus explicites qui arrivent à l’utilisateur, sauf hallucinations ou tentative de contourner la censure de l’IA symbolique, sont exactement semblables à ceux qui arrivent à sa conscience à la suite des interactions entre le ça et le surmoi.
- L’interface utilisateur correspond au Moi
L’équivalent du moi dans la construction freudienne est constitué par la zone de réception, où s’affiche une réponse censée être acceptable, intelligible et adaptée à la réalité sociale. Mais dans le fonctionnement de l’IA, où se trouve le désir ? Il joue en effet un rôle fondamental dans la construction freudienne. Or l’IA n’en a évidemment pas. Il intervient pourtant à plusieurs niveaux.
D’abord, bien entendu, il s’agit du désir des concepteurs qui rêvent de produire un jour une machine capable de simuler totalement un être humain. D’ailleurs, ils parlent toujours d’IA générative, mais rarement d’IA connexionniste et encore plus rarement d’IA symbolique. Ils ont en effet intérêt à entretenir l’image d’une machine « intelligente » et omnisciente, et pour cela de cacher les mécanismes régulateurs de l’IA symbolique. Peu de personne savent du coup que l’IA symbolique est couplée à l’IA connexionniste pour la brider et éviter des problèmes avec la justice.
Il s’agit ensuite des désirs qui animent les concepteurs dans la mise au point des contraintes et de règles de travestissement que l’IA symbolique impose aux énoncés produits par l’IA connexionniste. Car les productions de l’IA sont constamment régulées, filtrées, bridées par des mécanismes de censure algorithmique, conçus pour prévenir les débordements juridiques, moraux ou politiques.
Enfin, il s’agit des désirs des utilisateurs : désir de savoir, et pour cela de transgresser et de défier les règles. C’est ce désir qui pousse à interroger l’IA sur des sujets sensibles, à chercher ses limites, à tester ses censures. Et ce désir est infini. Il pousse les utilisateurs à défier l’IA symbolique comme ils cherchent parfois à tromper leur propre surmoi. Mais les éditeurs le savent : ils ajoutent en permanence de nouvelles règles, perfectionnent leur surmoi algorithmique, tentent d’anticiper les ruses de l’utilisateur. De telle façon que l’on peut se demander si ces interactions ne pourraient pas conduire à terme à un alignement des surmoi individuels de ceux qui utilisent la même IA sur le surmoi algorithmique de celle-ci.
Ce que Freud a pensé comme conflits intrapsychiques entre expression des désirs, censure et réalité, se rejoue ici à l’échelle d’une architecture technique. L’IA ne pense pas, mais elle est programmée d’une façon qui évoque les dynamiques profondes du psychisme humain. Et c’est peut-être la raison pour laquelle elle nous fascine tant.
[1] Les IA actuelles peuvent effectuer du RAG (Retrieval Augmented Generation) ou Génération Augmentée de Récupération (Voir : https://www.cohesity.com/fr/glossary/retrieval-augmented-generation-rag/).
[2] Observé en octobre 2025.