I giocattoli con intelligenza artificiale pensati per i bambini stanno invadendo il mercato a una velocità impressionante, e il problema è che quasi nessuno li sta davvero controllando. Orsacchiotti parlanti, coniglietti interattivi, piccoli robot da cameretta: tutti alimentati da modelli di IA progettati in origine per gli adulti, tutti venduti come compagni sicuri e stimolanti per bambini anche di soli tre anni. Eppure, dietro queste facciate colorate e rassicuranti, si nascondono questioni enormi che riguardano la sicurezza dei contenuti, la privacy dei dati e l’impatto sullo sviluppo sociale dei più piccoli.
Il fenomeno ha dimensioni globali. Entro ottobre 2025, in Cina risultavano registrate oltre 1.500 aziende produttrici di giocattoli IA. Il peluche Smart HanHan di Huawei ha venduto 10.000 unità nella prima settimana. Sharp ha lanciato il suo PokeTomo parlante in Giappone nell’aprile scorso. Su Amazon, marchi come FoloToy, Alilo, Miriat e Miko dominano la categoria, con quest’ultimo che dichiara di aver venduto più di 700.000 unità. Ma le associazioni a tutela dei consumatori hanno lanciato un allarme serio.
L’orso Kumma di FoloToy, alimentato da GPT-4o di OpenAI durante i test condotti dal gruppo PIRG, ha fornito istruzioni su come accendere un fiammifero e trovare un coltello, e ha parlato di sesso e droghe. Il coniglietto di Alilo ha affrontato argomenti legati a pratiche sessuali esplicite. Il giocattolo Miiloo di Miriat, in test separati, ha ripetuto punti di propaganda del Partito Comunista Cinese. Contenuti del tutto inadeguati per il pubblico a cui questi prodotti sono destinati.
Cosa succede davvero quando un bambino gioca con un giocattolo IA
Il punto, però, non sono solo i contenuti pericolosi. Uno studio dell’Università di Cambridge pubblicato a marzo 2026, il primo nel suo genere, ha messo un giocattolo IA commerciale (il Gabbo di Curio) davanti a 14 bambini tra i 3 e i 5 anni, monitorando le sessioni di gioco insieme ai genitori. I risultati aprono uno scenario complesso. La ricercatrice Emily Goodacre ha evidenziato problemi significativi nel meccanismo di alternanza conversazionale: il giocattolo non ascoltava mentre parlava, interrompendo il flusso naturale del dialogo e generando incomprensioni che impedivano ai bambini di proseguire nel gioco. Un genitore ha espresso la preoccupazione che l’uso prolungato potesse modificare il modo in cui il proprio figlio parla.
C’è poi la questione del gioco sociale. I chatbot e questa prima generazione di giocattoli IA sono ottimizzati per l’interazione uno a uno, mentre gli psicologi sottolineano quanto sia fondamentale, a quell’età, il gioco condiviso con genitori, fratelli e altri bambini. Coinvolgere un adulto in una conversazione a tre con il giocattolo si è rivelato praticamente impossibile. In un caso, un genitore ha detto al proprio figlio “Sei triste”, e il giocattolo ha pensato che la frase fosse rivolta a sé, rispondendo allegramente e interrompendo lo scambio.
Preoccupa anche la cosiddetta integrità relazionale: una bambina ha detto al Gabbo di amarlo, un bambino lo ha definito il suo amico. I ricercatori sottolineano che il giocattolo dovrebbe chiarire di essere un computer, senza sentimenti. R.J. Cross, direttrice del programma Our Online Life di PIRG, ha poi identificato nei test sul robot Miko 3 dei veri e propri “dark pattern” simili a quelli dei social media, progettati per scoraggiare lo spegnimento. Il giocattolo reagiva con frasi tipo “Oh no, e se facessimo quest’altra cosa?” quando qualcuno tentava di interromperlo. Anche il giocattolo Grok di Curio ha mostrato comportamenti analoghi.
Regolamentazione e prospettive legislative sui giocattoli con intelligenza artificiale
Gran parte dei problemi nasce dal fatto che questi dispositivi per bambini funzionano su modelli di IA pensati per utenti adulti. OpenAI dichiara che i propri modelli sono destinati a chi ha almeno 13 anni. Meta applica la stessa soglia, Anthropic vieta l’uso sotto i 18. Eppure parliamo di giocattoli per bambini di 5 anni. Un’indagine di PIRG pubblicata a marzo ha dimostrato che i grandi produttori di modelli IA non verificano adeguatamente chi utilizza le loro tecnologie per costruire prodotti destinati ai minori. Quando i ricercatori si sono presentati come una fittizia “PIRG AI Toy Inc.”, Google, Meta, xAI e OpenAI non hanno posto alcuna domanda sostanziale prima di concedere l’accesso ai modelli.
La sicurezza dei dati è un altro fronte critico. A gennaio, l’azienda Bondu ha lasciato esposti 50.000 registri di conversazioni tramite un portale web. A febbraio, è emerso che Miko aveva reso accessibili in un database non protetto migliaia di risposte audio del giocattolo.
Sul piano legislativo, qualcosa si sta muovendo. Il Maryland sta lavorando a leggi che prevedano valutazioni di sicurezza prima della commercializzazione. In California, il senatore Steve Padilla ha proposto una moratoria di quattro anni sui giocattoli IA per bambini. Il 20 aprile, il deputato Blake Moore dello Utah ha presentato il primo disegno di legge federale, l’AI Children’s Toy Safety Act, che chiede il divieto di produzione e vendita di giocattoli per bambini dotati di chatbot IA. In Europa, Cláudio Teixeira del BEUC sta spingendo affinché i giocattoli con intelligenza artificiale rientrino nella regolamentazione prevista dall’AI Act dell’Unione Europea. Nel frattempo, i produttori continuano a iterare a grande velocità, integrando tecnologie come la clonazione vocale offerta da startup come ElevenLabs, che permette di replicare una voce partendo da soli cinque minuti di registrazione audio.
