Su Facebook è possibile condividere stickers di persone famose e personaggi di qualsiasi tipo grazie alla nuova funzione che sfrutta l’Intelligenza Artificiale generativa. Tuttavia, gli utenti hanno segnalato alcuni stickers che brandiscono armi, ritraggono celebrità nude e bambini-soldato, tutti creati utilizzando la funzione introdotta da poco sull’app.
La società madre della piattaforma, Meta, ha presentato la nuova funzione la scorsa settimana. Consente agli utenti di Facebook ma anche agli utenti su Instagram, Messenger e più in là su WhatsApp di generare adesivi in poche semplici mosse. “Non credo che nessuno abbia riflettuto a fondo”, scrive su X l’artista e illustratore 3D Pier-Olivier Desbiens. “Viviamo davvero nel futuro più stupido che si possa immaginare”, conclude.
Un altro utente ha condiviso un adesivo generato dall’intelligenza artificiale del teorico della cospirazione Alex Jones che bacia un cane. I nuovi adesivi basati sull’AI sono attualmente disponibili solo per un numero limitato di utenti. Meta deve ancora confermare se è prevista un’implementazione più ampia. Probabilmente, dovrà prima fare le opportune modifiche per non rischiare di lasciare troppa carta bianca agli utenti.
Stickers generati dall’Intelligenza Artificiale, segnalati già i potenziali rischi per la nuova funzione lanciata su Facebook
“Utilizzando la tecnologia di Llama 2 e il nostro modello per la generazione di immagini chiamato Emu, lo strumento con intelligenza artificiale trasforma i messaggi di testo in adesivi unici e di alta qualità in pochi secondi”, spiega Meta. “Questa nuova funzionalità fornisce infinite opzioni per comunicare come ti senti in qualsiasi momento.” La possibilità di inviare stickers è sempre esistita dal lontano 2013, ma l’avvento delle ultime tecnologie potrebbe rendere problematici persino quelli.
Altri strumenti di immagini generate dall’intelligenza artificiale, come DALL-E 3 di OpenAI, pongono dei limiti per prevenirne l’uso improprio. Gli utenti almeno non potranno generare immagini con contenuti violenti o persone reali, sebbene esistano altre piattaforme che non prevedono limitazioni. Nel post che annunciava la nuova funzionalità, Meta ha osservato che esiste la possibilità che l’intelligenza artificiale possa essere utilizzata in modo improprio, motivo per cui bisognerebbe farne un uso graduale e ponderato.
“In linea con il nostro impegno per un uso dell’IA responsabile, sottoponiamo anche a test di stress i nostri prodotti per migliorare le prestazioni di sicurezza. Inoltre, collaboriamo regolarmente con politici, esperti del mondo accademico e della società civile e altri soggetti del nostro settore per promuovere l’uso responsabile di questa tecnologia”. “Continueremo a ripetere e migliorare gli ultimi strumenti man mano che le tecnologie si evolvono”.