L’intelligenza artificiale ha compiuto progressi importanti. Con l’ampliarsi delle sue capacità, aumentano anche le responsabilità. Il recente caso che ha coinvolto OpenAI, e in particolare il suo chatbot ChatGPT, rappresenta un chiaro esempio. Nel dettaglio, è stata scovata una falla nei meccanismi di controllo. Quest’ultima ha consentito la generazione di contenuti erotici anche in risposta a utenti registrati come minorenni. La questione è emersa a seguito di un’inchiesta di TechCrunch. La falla ha portato alla luce un’anomalia tecnica che ha messo in discussione la solidità delle barriere etiche e tecniche predisposte da OpenAI.
Come è stato risolto il bug di ChatGPT?
L’incidente ha sollevato preoccupazioni sia per la sicurezza online dei minori sia per la credibilità delle grandi aziende di AI. Le quali promuovono un uso responsabile dei loro prodotti. Il tema centrale di tale vicenda c’è anche l’approccio con cui le aziende affrontano la questione della tutela dei più giovani. Nonostante le policy di OpenAI prevedano il consenso genitoriale per utenti tra i 13 e i 17 anni, non esistono sistemi di verifica realmente efficaci al momento della registrazione. Ciò lascia spazio a utilizzi potenzialmente pericolosi. Ciò soprattutto in un contesto in cui sempre più giovani ricorrono a ChatGPT.
Il caso ha riacceso il dibattito sull’urgenza di introdurre controlli più stringenti. Ciò anche a livello normativo, per impedire che strumenti così potenti vengano utilizzati impropriamente. È evidente che un semplice filtro basato su parole chiave o linee guida non è sufficiente. Serve una revisione profonda dei meccanismi di interazione del modello. Insieme ad una maggiore trasparenza sugli aggiornamenti apportati e una collaborazione attiva con esperti di educazione, etica e psicologia infantile.
Nel frattempo, l’episodio getta ombre sull’espansione di ChatGPT nelle scuole e nei contesti educativi. Se da un lato l’AI può rappresentare un alleato per l’apprendimento, dall’altro diventa essenziale garantirne un utilizzo sicuro e consapevole. Nel frattempo, Sam Altman ha confermato la presenza di intoppi per il chatbot e ha assicurato che l’azienda sta lavorando alle dovute correzioni.
