Uno studio condotto dall’Università di Cambridge ha acceso i riflettori sui giocattoli con IA generativa e sui rischi concreti che possono rappresentare per i bambini più piccoli. Si tratta della prima ricerca mai realizzata su questo tipo di prodotti, e i risultati fanno riflettere parecchio.
Il progetto, inserito nel programma AI in the Early Years, ha coinvolto 14 bambini tra i tre e i cinque anni. Ognuno di loro è stato registrato mentre interagiva per la prima volta con Gabbo, un peluche conversazionale realizzato da Curio Interactive e alimentato da un modello linguistico generativo. Le sessioni si sono svolte in centri per l’infanzia a Londra nell’arco di un anno, con interviste successive sia ai bambini che ai genitori.
Quello che è emerso non è esattamente rassicurante. Il sistema faticava a distinguere la voce di un bambino da quella di un adulto, ignorava le interruzioni e interpretava male le emozioni. Un esempio su tutti: quando un bambino di cinque anni ha detto “ti voglio bene”, Gabbo ha risposto con un avviso burocratico sulle linee guida d’uso. Nessuna risposta empatica, nessun riconoscimento del gesto affettivo. Un adulto ci riderebbe su. Per un bambino piccolo, però, è tutta un’altra storia.
Relazioni parasociali e gioco simbolico: dove il sistema fallisce
Secondo la ricercatrice Dr. Emily Goodacre, questo tipo di risposta può lasciare il bambino senza alcun supporto emotivo, né dal giocattolo né, per conseguenza logica, da un adulto a cui si sarebbe potuto rivolgere in quel momento. È un punto delicato, perché i giocattoli con IA si inseriscono in uno spazio relazionale che per i più piccoli è ancora tutto da costruire.
E poi c’è il tema delle relazioni parasociali. Molti bambini abbracciavano Gabbo, gli davano baci, dichiaravano di amarlo. Per i più piccoli è assolutamente normale antropomorfizzare gli oggetti, fa parte del loro modo di esplorare il mondo. Ma quando quell’oggetto risponde, parla, reagisce, il confine tra giocattolo e amico diventa sottilissimo. Un educatore coinvolto nella ricerca lo ha detto senza troppi giri di parole: il bambino pensa che il giocattolo lo ami davvero, ma non è così.
Due pilastri dello sviluppo cognitivo ed emotivo nella prima infanzia, il gioco simbolico e quello sociale, risultavano quasi impossibili da gestire per il sistema. Quando un bambino offriva a Gabbo un regalo immaginario, il peluche rispondeva di non poterlo aprire e cambiava argomento, bloccando di fatto il flusso creativo del gioco. Uno scenario che, ripetuto nel tempo, potrebbe avere effetti non trascurabili sulla capacità di un bambino di sviluppare l’immaginazione e le competenze sociali.
Privacy e trasparenza: le preoccupazioni dei genitori
Sul fronte della privacy, diversi genitori hanno espresso dubbi su quali dati vengano registrati durante le interazioni e dove finiscano. Una preoccupazione tutt’altro che infondata: i ricercatori hanno verificato che le politiche sulla privacy di molti prodotti simili a Gabbo sono poco trasparenti o addirittura incomplete. Si parla di conversazioni tra bambini e dispositivi connessi, quindi di dati particolarmente sensibili, gestiti spesso senza che le famiglie abbiano davvero chiaro cosa accade dietro le quinte.
Lo studio dell’Università di Cambridge rappresenta un primo passo importante per capire come i giocattoli con intelligenza artificiale generativa interagiscano con i bambini in età prescolare, e soprattutto quali criticità portano con sé. La ricerca è stata pubblicata nell’ambito del progetto AI in the Early Years e resta ad oggi il riferimento principale su un tema destinato a diventare sempre più rilevante.
