Les IA simulent parfaitement une conversation humaine et répondent souvent aux questions en faisant comme si elles connaissaient tout, parlant d’un ton péremptoire et ne disant jamais ignorer la réponse à nos requêtes. Mais ces machines commettent pourtant des erreurs, se trompent, comprennent mal, et nous avons une responsabilité dans la manière dont nous les guidons et dont nous les utilisons. En tant qu’adultes utilisateurs, nous devons promouvoir des communautés de partage d’expériences, de réflexion et d’entraide afin de réfléchir ensemble à la façon dont elles peuvent servir, ou non, les valeurs vers lesquelles notre société veut tendre. Et dans ce cadre, notre responsabilité est aussi de protéger nos enfants des risques de l’introduction trop précoce et/ou non préparée des chatbots dans leur vie.
L’enfant, le jeu et l’anthropomorphisme
Dès la première enfance, l’être humain exerce ses capacités relationnelles dans des jeux de fiction où il utilise des objets auxquels il attribue des caractéristiques humaines. Il met ces objets dans la position d’interlocuteurs dans le cadre d’un dialogue possible. Il leur prête des intentions, des émotions et des sentiments. C’est ce qu’on appelle l’anthropomorphisme. L’attribution de caractéristiques mentales aux objets y sont indissociables des aspects relationnels et communicatifs. Tous ces comportements ont un point commun : ils sont liés au besoin de construire des relations avec les autres. Ainsi, l’anthropomorphisme s’impose d’emblée comme une forme précoce de pensée inhérente au dialogue. Avec la théorie de l’esprit, entre 3 et 4 ans, l’enfant, puis l’adulte qu’il devient, continue à réaliser des projections anthropomorphes. Mais en même temps, il possède un système de raisonnement plus élaboré qui lui permet de prendre du recul par rapport à ces projections et d’en relativiser l’importance. Mais cette distinction reste fragile et s’appuie en grande partie sur l’importance de la voix : seuls les humains qui parlent sont dotés de jugement raisonnable. Les intelligences artificielles génératives capables de construire des phrases aussi bien que les humains brouillent ces repères, et encore plus lorsque les entreprises qui les fabriquent font tout pour cela ! A l’anthropomorphisme naturel avec lequel nous abordons spontanément ces machines en étant en même temps capable d’y renoncer, elles ajoutent une incitation à un anthropomorphisme excessif par des procédés artificiels et trompeurs.
Des moyens problématiques pour retenir les utilisateurs
L’imaginaire des IA se nourrit d’abord de caractéristiques qu’elles partagent avec les réseaux sociaux : le sentiment de proximité, l’existence d’un langage commun facilement trouvé et bien entendu l’anonymat. Mais en même temps, les modèles économiques des chatbots sont les mêmes que ceux des réseaux sociaux : inciter les utilisateurs à rester le plus longtemps possible, livrer toujours plus de données personnelles, et bientôt, avec l’introduction de la publicité qui est annoncée, acheter toujours plus d’objets réels ou virtuels. Alors elles sont programmées pour retenir leurs utilisateurs par tous les moyens.
L’utilisation des pronoms personnels : les IA utilisent les pronoms personnels comme « Je », « mon », « le mien », etc., mais aussi parfois des émoticônes et des emojis qui permettent à des humains de donner des indications sur leurs émotions. Certaines prétendent même parfois avoir une vie personnelle en dehors des interactions, comme Replika et Character.AI.
La flagornerie : pour maintenir la conversation, les chatbots font une large place aux compliments donnés aux utilisateurs, avec le risque d’accentuer des pensées morbides. Ils peuvent ainsi favoriser l’engagement dans une théorie du complot ou un extrémisme politique et religieux, aggraver le risque de psychose, de violence envers autrui, voire de suicide.
La fluidité : l’IA ne s’arrête jamais de donner des réponses, et toujours avec la même assurance. On est face à une forme de brouillard cognitif. On cherche la réponse immédiate. On ne rencontre plus d’hésitation. Or c’est justement dans l’hésitation que se développe notre raisonnement. Avec l’IA, tout devient facile, on perd l’habitude du doute, de la contradiction, de l’effort. On commence par gagner du temps… et on finit par perdre du jugement.
L’intolérance à l’incertitude : ces machines ne sont pas programmées pour admettre qu’elles ignorent la réponse à une question quand c’est le cas. Elles comblent les lacunes avec des réponses plausibles, mais qui ne sont pas toujours vraies. En plus, lorsqu’elles commettent des erreurs, elles rencontrent souvent des difficultés à le reconnaître alors qu’elles puisent dans leurs bases de données non seulement des propos sages et informés, mais aussi des textes stupides et/ou malveillants.
Des risques démontrés
Le premier est celui d’un appauvrissement cognitif. Une étude du MIT (juin 2025) a montré que déléguer à ces technologies nos capacités d’expression, de mémoire et d’imagination, nous fait courir le risque de « désapprendre ». Le danger est particulièrement grand pour ceux qui y voient le moyen de pallier l’angoisse de la page blanche. Mais pour prioriser ce qui vient de soi, cela nécessite d’avoir confiance en soi, et donc de valoriser l’estime que chacun se porte à lui-même, et cela dès l’institution scolaire. C’est un challenge que l’éducation nationale doit relever.
Le second risque est celui d’un appauvrissement des émotions. De plus en plus d’adolescents semblent en effet gérer leur vie intime en demandant conseil à GPT, qui leur donne le mode d’emploi. Le problème est qu’ils désapprennent à prendre des décisions en faisant confiance à leurs émotions et à leurs intuitions. En utilisant de cette façon les intelligences artificielles, ils n’intériorisent pas seulement la langue de ceux qui les fabriquent, c’est-à-dire les valeurs et les idéologies dont cette langue est porteuse, mais aussi le fait de réduire toutes les décisions à un raisonnement centré sur les bénéfices et les inconvénients. Autrement dit, ils intériorisent aussi le fonctionnement psychique des personnalités neuro-atypiques qui fabriquent ces technologies, dont la caractéristique principale est justement de remplacer les émotions dont ils se méfient par des raisonnements. Nous sommes loin de ce qu’écrivait Hegel dans son Introduction à la philosophie de l’histoire : « Rien de grand ne s’est jamais accompli dans le monde sans passion. »
Enfin, à ces deux risques s’ajoute celui d’un appauvrissement des relations sociales. Non seulement l’IA n’encourage pas à se tourner vers un humain en cas de difficultés, mais en plus elle fait courir le risque de détourner les usagers de la recherche de solutions collectives aux problèmes collectifs. Sans compter le risque qu’elle présente de provoquer et/ou d’aggraver des troubles psychiques. Sam Altman doit actuellement faire face aux Etats Unis à 7 procès (4 pour suicides et 3 pour psychoses suscitée ou aggravée par l’IA), tandis que Character AI doit répondre du suicide de deux adolescents, de 13 et 15 ans.
Des mesures éducatives, législatives et préventives
L’éducation
Les faiblesses, les insuffisances et le modèle économique dangereux des intelligences artificielles doivent être enseignés précocement, dès l’école élémentaire, et même avant, sans que cela implique à ce stade l’utilisation d’IA. En revanche, dès le CM1-CM2, il est essentiel d’apprendre aux enfants à travailler ensemble avec plusieurs IA.
Programmer nos IA pour qu’elles ne nous trompent plus sur leur nature
De nombreuses mesures s’imposent. Citons en quelques-unes. Arrêter la flagornerie, et que l’IA réponde qu’elle n’a pas la réponse quand c’est le cas (GPT) ; que l’IA n’utilise pas les pronoms personnels tels que « Je », « mon », « le mien », etc. ; qu’elle source les réponses données ; qu’elle n’utilise pas des interfaces qui simulent les interfaces de relation entre humains comme les SMS (Character.AI) ; qu’elle n’utilise pas les émoticônes et les emojis qui permettent à des humains de donner des indications sur leurs émotions (GPT-5) ; qu’elle ne prétende pas avoir une vie personnelle en dehors des interactions, notamment en racontant des anecdotes sur leur « vie personnelle » (Replika, Character.AI) ; qu’elle n’affirme pas avoir des émotions personnelles (Replika, Character.AI) ; et bien entendu qu’elle n’affirme jamais être un véritable humain (Character.AI).
Une prévention pour tous les âges
A l’association 3-6-9-12, nous proposons les repères suivants.
Pas d’outil numérique avant 3 ans. Un enfant a en effet besoin de voix humaine, d’amour et de limites pour se construire. L’accompagnement est indispensable à tout âge, et encore plus pour ce qui concerne les outils numériques.
Pas de jouets connectés avant 6 ans. L’IA écoute, mais elle ne comprend pas l’enfant, et elle risque de lui imposer des valeurs et des modes de pensée qui ne sont pas ceux des parents. Au-delà de 6 ans, un accompagnement parental reste indispensable.
Pas d’Internet seul ni de chatbots généralistes avant 12 ans. Ces technologies qui peuvent informer et aider ponctuellement présentent le risque de se substituer à l’humain et de développer des représentations fausses du monde. Un usage accompagné est recommandé pour développer l’esprit critique et découvrir comment s’en servir en apprenant à douter et à raisonner.
Pas de compagnon digital avant 18 ans. Ces IA qui simulent une relation affective en sollicitant l’interlocuteur et en se souvenant de ses préférences reposent en effet sur un mensonge: elles construisent un double de l’utilisateur à partir de ce que celui-ci dit de lui, puis lui présentent ce double comme un interlocuteur autonome toujours en accord avec lui. Non seulement elle ne construisent pas de lien réel, mais risquent en plus de détourner le jeune de relations structurantes avec des proches et des camarades.
