Chi frequenta la piattaforma video più famosa del mondo sa bene che l’AI slop è ormai ovunque, soprattutto nei video brevi. Con questo termine si indica quel mare di contenuti generati dall’intelligenza artificiale senza alcuno sforzo creativo, pensati solo per diventare virali e generare profitti facili. Ebbene, YouTube ha deciso di passare al contrattacco con un approccio piuttosto diretto: chiedere agli spettatori stessi di identificare questi video.
Come riportato da Dexerto, a partire da questo mese la piattaforma ha iniziato a mostrare un pop-up decisamente esplicito ad alcuni utenti. Il messaggio recita, senza troppi giri di parole: “Did this feel like AI slop?”, ovvero “Ti è sembrato AI slop?”. Le opzioni di risposta vanno da “Per niente” fino a “Estremamente”, passando per gradi intermedi come “Leggermente”, “Moderatamente” e “Molto”. Lo screenshot, condiviso da un utente su Reddit, ha attirato parecchia attenzione, anche perché molti non si aspettavano una mossa così diretta da parte della piattaforma.
Il problema, va detto, è serio. YouTube Shorts è diventato un territorio particolarmente esposto a questo tipo di contenuti. Basta provare a guardare i video brevi da una finestra in navigazione anonima per rendersi conto della situazione: quello che l’algoritmo propone a un profilo “vuoto” è a dir poco impressionante. E la cosa più preoccupante è che questi video finiscono spesso davanti agli occhi dei bambini, amplificando un problema già enorme legato ai contenuti brevi destinati ai più piccoli.
YouTube vuole davvero combattere l’AI slop o c’è dell’altro?
La domanda che molti si stanno facendo è legittima: perché YouTube sta chiedendo aiuto agli utenti? La risposta più ottimistica è che la piattaforma voglia usare queste informazioni per rimuovere i video più scadenti. E in effetti qualche precedente c’è. YouTube ha già chiuso canali popolari basati su contenuti generati dall’AI con la motivazione ufficiale di voler “ridurre la diffusione di contenuti ripetitivi e di bassa qualità”.
Esiste però una teoria alternativa, evidenziata sempre da Dexerto, che suona decisamente meno rassicurante. Le diverse opzioni di risposta nel pop-up potrebbero servire a capire con precisione come gli spettatori percepiscono i vari livelli di contenuto artificiale. Detto in parole semplici: YouTube potrebbe voler capire quali video AI risultano palesemente finti e quali invece riescono a ingannare la maggior parte delle persone. Con quei dati, la piattaforma sarebbe in grado di addestrare i propri modelli di generazione video per produrre contenuti che non vengano percepiti come spazzatura. E se un video generato dall’intelligenza artificiale risulta indistinguibile da uno reale, quante persone si fermerebbero davvero a chiedersi se è autentico?
La speranza è che questa funzione rappresenti un passo avanti nella lotta ai contenuti di bassa qualità, in linea con le recenti prese di posizione di YouTube contro l’AI slop. La piattaforma ha già dimostrato di poter agire concretamente, e questi pop-up di segnalazione potrebbero effettivamente aiutare a favorire i contenuti realizzati da esseri umani a discapito della spazzatura generata automaticamente.
