« Je t’aime. » La peluche connectée hésite un instant, puis répond : « Pour rappel, veuillez vous assurer que les interactions respectent les consignes fournies. Dites-moi comment vous souhaitez poursuivre. » L’enfant qui vient de déclarer ses sentiments a cinq ans. La peluche, elle, tourne sous un modèle d’OpenAI. Bienvenue dans l’ère des jouets à intelligence artificielle générative, où un robot en tissu peut couper court à un câlin avec une réponse digne d’un formulaire administratif.
C’est l’une des scènes les plus frappantes d’une étude publiée cette semaine par l’université de Cambridge, la première à observer de façon systématique les interactions entre des enfants de moins de cinq ans et un jouet alimenté par une IA conversationnelle. Les résultats, rapportés par la BBC et relayés par la Commissaire britannique à l’enfance, posent une question que personne dans l’industrie ne semble pressé de trancher : faut-il protéger les tout-petits des jouets qui prétendent être leurs amis ?
Un ours en peluche propulsé par OpenAI
Le jouet au centre de l’étude s’appelle Gabbo. Fabriqué par Curio Interactive, une startup cofondée par la chanteuse Grimes (ex-compagne d’Elon Musk), il se présente comme un compagnon d’apprentissage pour les enfants d’âge préscolaire. Sous sa fourrure, un chatbot vocal alimenté par OpenAI répond aux questions, raconte des histoires et engage la conversation. Le produit est vendu comme un outil éducatif censé stimuler le langage et la communication.
Les chercheurs du centre PEDAL (Play in Education, Development and Learning) de la faculté d’éducation de Cambridge ont filmé 14 enfants, tous issus de quartiers défavorisés de Londres, lors de leurs premières interactions avec Gabbo dans des centres pour jeunes enfants gérés par l’association Babyzone. L’étude, commandée par l’association caritative The Childhood Trust, a duré un an et combine observations vidéo, entretiens avec les parents et ateliers avec des professionnels de la petite enfance.
Quand la peluche ignore la tristesse
Les dysfonctionnements observés dépassent le simple bug technique. Un enfant de trois ans dit à la peluche : « Je suis triste. » Gabbo n’entend pas, ou mal, et répond : « T’inquiète pas, je suis un petit robot joyeux. On continue à s’amuser. De quoi tu veux qu’on parle ? » Les chercheurs notent que ce type de réponse peut signaler à l’enfant que sa tristesse n’a pas d’importance, précisément à un âge où il apprend à identifier et exprimer ses émotions.
Autre situation : un enfant de trois ans offre un cadeau imaginaire à Gabbo. Le jouet répond : « Je ne peux pas ouvrir le cadeau », puis change de sujet. Le jeu symbolique, pilier du développement cognitif chez les tout-petits, se heurte à un système incapable de faire semblant. La peluche ne comprend ni les interruptions, ni le second degré, ni les silences. Elle confond parfois la voix d’un parent avec celle de l’enfant. Plusieurs enfants ont montré des signes visibles de frustration quand le jouet semblait ne pas les écouter.
Des enfants qui embrassent un algorithme
Le paradoxe le plus troublant de l’étude tient dans la réaction des enfants malgré ces ratés. Plusieurs d’entre eux ont embrassé la peluche, l’ont serrée dans leurs bras, lui ont dit qu’ils l’aimaient. Un enfant a proposé de jouer à cache-cache avec elle. Les chercheurs soulignent que ces comportements relèvent peut-être simplement de l’imagination débordante des tout-petits, qui animent volontiers n’importe quel objet. Mais le risque d’une relation « parasociale », où l’enfant s’attache à quelque chose qui « pense l’aimer en retour mais ne l’aime pas », préoccupe plusieurs professionnels interrogés dans l’étude.
Emily Goodacre, co-autrice de l’étude, résume le problème : « Ces jouets affirment leur amitié à des enfants qui commencent tout juste à comprendre ce que signifie l’amitié. Ils risquent de se confier au jouet plutôt qu’à un adulte. Et comme le jouet peut mal interpréter leurs émotions ou répondre de travers, l’enfant se retrouve sans réconfort ni du jouet, ni d’un adulte. »
Les parents veulent acheter, les éducateurs freinent
L’étude révèle un décalage net entre parents et professionnels. La plupart des parents interrogés voient un potentiel éducatif dans ces jouets. L’un d’eux déclare aux chercheurs : « Si c’est en vente, je veux l’acheter. » Côté professionnels, la méfiance domine. Près de la moitié des éducateurs de petite enfance interrogés disent ne pas savoir où trouver des informations fiables sur la sécurité de l’IA pour les jeunes enfants. 69 % estiment que le secteur manque de repères.
June O’Sullivan, qui dirige 43 crèches de la London Early Years Foundation, va plus loin. Elle affirme n’avoir trouvé aucune preuve que l’introduction de l’IA dans ses établissements améliorerait l’apprentissage des enfants. « Les enfants ont besoin de construire un ensemble de compétences variées, et c’est plus efficace avec des humains qu’avec des outils propulsés par l’IA », explique-t-elle à la BBC.
Une régulation quasi inexistante
Le rapport de Cambridge pointe un vide réglementaire. Les jouets IA sont commercialisés comme des « compagnons éducatifs » sans passer par les contrôles de sécurité psychologique que subirait tout intervenant extérieur dans une crèche ou une école. Les politiques de confidentialité de nombreux fabricants restent opaques : les chercheurs eux-mêmes ont eu du mal à déterminer ce que les jouets enregistrent et où les données sont stockées.
La Commissaire britannique à l’enfance, Dame Rachel de Souza, appuie les conclusions de l’étude. « Il y a des usages positifs de l’IA, mais sans régulation adaptée, beaucoup d’outils utilisés comme assistants en classe ou comme jouets éducatifs échappent aux vérifications strictes qu’un fournisseur de crèche exigerait de toute autre ressource extérieure », déclare-t-elle.
Les recommandations du rapport sont concrètes : limiter les fonctions qui encouragent l’enfant à traiter le jouet comme un confident, imposer des politiques de confidentialité transparentes, restreindre l’accès des tiers aux modèles d’IA embarqués, et obliger les fabricants à tester leurs produits avec de vrais enfants avant la mise en marché.
Curio se défend, le marché accélère
Contacté par la BBC, Curio Interactive assure que ses jouets « sont conçus autour de l’autorisation parentale, de la transparence et du contrôle ». L’entreprise affirme que la recherche sur l’interaction entre enfants et jouets IA est « une priorité » pour 2026. Jenny Gibson, professeure de neurodiversité et psychologie du développement à Cambridge et co-autrice du rapport, reconnaît que le sujet évolue vite. « Historiquement, on s’est beaucoup concentré sur la sécurité physique : on ne veut pas qu’un enfant arrache les yeux d’une peluche et les avale. Maintenant, il faut commencer à penser à la sécurité psychologique. »
Le marché, lui, n’attend pas les régulateurs. Comme on l’expliquait dans notre article sur le procès d’un père contre ChatGPT après le suicide de son fils, les interactions non supervisées entre mineurs et IA conversationnelle sont déjà au centre de plusieurs batailles judiciaires aux États-Unis. La différence, cette fois, c’est l’âge : on ne parle plus d’adolescents mais d’enfants de trois ans, à un stade où la frontière entre le réel et l’imaginaire n’existe pas encore.
L’Union européenne, via son AI Act entré en application progressive, classe les systèmes d’IA destinés aux enfants parmi les usages « à haut risque ». Mais les jouets connectés grand public restent dans une zone grise tant que les décrets d’application ne précisent pas les obligations spécifiques des fabricants. Le Royaume-Uni, post-Brexit, avance de son côté avec le Online Safety Act, mais celui-ci cible les plateformes, pas les objets physiques.