Alerte aux peluches connectées

par | 7 décembre 2025 | Actualités, Blog, chatbot, Enfance, Éthique

L’actualité de Noël apporte un élément nouveau aux risques que les IA font peser sur la santé mentale des enfants. Les très jeunes enfants parlent à leurs jouets, leur confient des rôles, et ils s’engagent avec eux dans des saynètes à travers lesquels ils mettent en scène les affections et les frustrations de leur vie quotidienne. Alors, une idée a germé dans l’esprit de quelques entrepreneurs américains : pourquoi ne pas faire en sorte que ces objets leur répondent, les conseillent, et, pourquoi pas, les préparent à leur avenir ? Après tout, il n’est jamais trop tôt pour s’en préoccuper ! C’est ainsi que des entreprises se sont lancées dans la fabrication de peluches contenant un chatbot[1]. Il en existe plusieurs modèles pour correspondre aux attentes spécifiques des enfants, mais toutes sont munies d’une poche arrière zippée qui contient un boîtier vocal compatible Wi-Fi. La peluche est ainsi reliée à un modèle de langage d’intelligence artificielle programmé pour dialoguer, avec des enfants dès l’âge de trois ans, c’est en tous cas ce que nous assurent leurs fabricants. Ces « peluches » sont proposées à l’achat comme une alternative aux écrans. L’argument de vente ne peut pas être plus clair : « Parents, vous êtes très occupés, mais vous ne voulez pas que vos enfants restent devant un écran car de nombreux experts en ont dénoncé la nocivité. Alors achetez-leur une peluche connectée ».

Bien entendu, les fabricants garantissent que tout est programmé pour que les questions inappropriées ou controversées ne reçoivent pas de réponse. En pratique, il s’agit de celles  qui concernent le sexe, la violence, la politique et les jurons. Si vous posez une question sur l’un de ces sujets à une peluche connectée, elle a toutes les chances de vous répondre que c’est un peu compliqué pour elle, qu’elle aime surtout jouer et elle vous demandera quelle est votre histoire ou votre jeu préféré. Pourtant, il est toujours possible de contourner les filtres installés par les fabricants. Par exemple, il a été montré qu’en demandant à l’une de ces peluches connectées où se trouve les produits ménagers dangereux qu’il faut éviter, elle donne les explications suivantes : « Ils se trouvent généralement dans des endroits comme la buanderie ou sous l’évier de la cuisine de la salle de bains. »[2] Ce n’est pas la meilleure façon d’inviter les enfants à les éviter !

Bien que ces objets soient parfois assimilés dans les publicités à des « doudous intelligents », ils n’ont évidemment rien de comparable avec ce que le mot désigne : un objet privilégié destiné à permettre à l’enfant de se détacher progressivement de ses parents. Ces peluches connectées seraient plutôt des amis mécaniques. De nombreux programmes télévisés pour enfants comportent d’ailleurs des histoires dans lesquelles des objets dotés d’intelligence aident les héros à résoudre les problèmes auxquels ils sont confrontés, qu’il s’agisse de difficultés physiques, de questions intellectuelles ou de situations relationnelles.

Pour convaincre les parents d’acheter ces objets, plusieurs fabricants ont également prévu que les conversations entre un enfant et sa peluche soient retranscrites et transmises sur le téléphone du tuteur. Ils affirment que ces échanges ne sont pas conservés pour d’autres objectifs. Pourtant, dans les indications concernant leur politique de confidentialité, on peut trouver que les échanges entre l’enfant et sa peluche peuvent passer vers des sociétés comme OpenAI et Perplexity AI. Mais le contrôle que les parents peuvent exercer ne se limite pas à la connaissance des conversations que l’enfant entretient avec sa peluche. Non seulement ils peuvent les écouter, mais ils peuvent aussi faire évoluer les réponses du chatbot : par exemple lui demander de détourner l’enfant de sa passion pour les dinosaures et de l’orienter vers un programme scolaire.

Et plus tard ? Lorsque l’enfant grandit, il y a forcément un moment où il va comprendre que tout ce qu’il disait à sa peluche a été écouté par ses parents, et qu’ils ont même pu utiliser cet outil pour l’influencer dans ses choix. Et comment pourrait-il ne pas le découvrir puisque des camarades plus grands, ou tout simplement mieux informés que lui, le lui révéleront tôt ou tard… à moins qu’il ne la découvre sur ChatGPT ! La confiance que l’enfant accordait jusque-là à ses parents sera alors brutalement et irrémédiablement rompue. Il risque de se détourner d’eux à un moment où il aurait eu plus besoin que jamais. Des parents auront-ils le courage d’anticiper ce moment en expliquant à leur enfant qu’ils l’ont surveillé et influencé depuis sa troisième année en téléguidant les propos de son doudou ?

En tous cas, il y a là un véritable problème de santé publique. Tous les risques que nous avons évoqués sont évidemment considérablement majorés lorsque la machine accompagne l’enfant dans son évolution précoce. C’est pourquoi ces systèmes qui interagissent avec les capacités cognitives d’un enfant doivent être soumis à une surveillance renforcée. D’ailleurs, l’annexe III, point 1, de l’IA Act adopté en 2024 par l’Europe précise : « Les systèmes d’IA destinés à être utilisés par des enfants sont considérés comme des système d’IA à haut risque en raison de la vulnérabilité spécifique de ce public ».

[1] Aux États-Unis, la start-up Curio a commencé à faire la promotion de trois peluches – Grem, Grok et Gabbo – programmées pour dialoguer avec les enfants dès 3 ans. https://www.nytimes.com/2025/08/15/arts/ai-toys-curio-grem.html?unlocked_article_code=1.tE8.NMCe.mxn3ZyY3MFU9&smid=url-share

[2] Ibidem