Il fenomeno ha già un nome preciso, ed è uno di quelli che fanno riflettere: podslop. Nasce dalla fusione tra “podcast” e “AI slop”, quel termine che ormai circola parecchio per descrivere contenuti sfornati in massa dai modelli generativi senza alcun controllo editoriale serio. E i numeri danno l’idea della portata: secondo i dati raccolti dalla piattaforma Listen Notes, circa il 39% dei nuovi podcast pubblicati negli ultimi mesi mostrerebbe caratteristiche compatibili con una produzione completamente automatizzata tramite intelligenza artificiale.
Una percentuale che fa un certo effetto, soprattutto pensando alle origini del podcasting. Parliamo di un formato nato nei primi anni 2000 come spazio libero, dominato da creator umani, produzioni indipendenti, voci autentiche. Oggi quel mondo si ritrova letteralmente invaso da canali che spuntano ogni settimana con script sintetici, voci artificiali e contenuti aggregati senza che nessun essere umano ci metta davvero le mani sopra. Va detto: il problema non è l’uso dell’AI in quanto tale. Molti creator la utilizzano già per trascrizioni, pulizia audio, traduzioni. La questione vera riguarda le migliaia di canali che vengono pubblicati in serie, senza supervisione, con il solo obiettivo di occupare spazio nelle piattaforme.
Come funziona la produzione automatica e perché conviene così tanto
Creare un podcast con l’AI oggi richiede competenze tecniche davvero minime. Esistono piattaforme che mettono insieme modelli linguistici, sistemi text-to-speech e generatori automatici di feed RSS in un’unica procedura quasi istantanea. Il meccanismo è semplice: un LLM raccoglie articoli online, li riscrive, produce uno script e lo converte in audio con voci neurali. Alcuni servizi ci aggiungono pure musica royalty free, copertine generate automaticamente e pubblicazione diretta su Spotify, Apple Podcasts e YouTube. Tutto senza intervento umano.
La motivazione dietro questo fenomeno è soprattutto economica, e non ci vuole molto a capire perché. Un podcast tradizionale richiede autori, speaker, montaggio, ricerca editoriale. Una pipeline automatizzata, invece, può sfornare centinaia di episodi al giorno con costi praticamente a zero. La monetizzazione arriva tramite advertising automatico, affiliate marketing e piattaforme che premiano il volume di pubblicazione. Molti operatori gestiscono decine di feed differenti con infrastrutture completamente automatizzate, spesso usando nomi che imitano programmi giornalistici reali o sfruttando keyword ad alto traffico per comparire nelle ricerche interne delle piattaforme. Il fenomeno del podslop, insomma, si alimenta da solo.
I rischi concreti per chi ascolta e per tutto il settore
Le piattaforme podcast si basano su architetture aperte costruite attorno ai feed RSS, un sistema che da sempre favorisce la libertà editoriale ma che rende oggettivamente complicato filtrare produzioni automatiche massive. Se migliaia di podcast generati con AI vengono caricati ogni giorno, gli algoritmi rischiano di promuovere contenuti sintetici a scapito di quelli originali, alterando raccomandazioni e classifiche in modo significativo.
Il rischio più grave, però, riguarda la disinformazione. I modelli generativi sintetizzano testi senza verificare accuratezza o attendibilità delle fonti, e la voce sintetica, anche quando suona professionale, tende comunque a trasmettere un senso di autorevolezza. Su temi come salute, finanza o cronaca, gli errori generati da un modello linguistico possono trasformarsi rapidamente in disinformazione su larga scala. Alcune piattaforme stanno introducendo strumenti di rilevamento automatico, ma distinguere una voce AI da una registrazione umana richiede analisi avanzate di pattern acustici e artefatti digitali.
Il podcasting sta attraversando la stessa crisi già vissuta dal web testuale: l’automazione generativa permette contenuti praticamente illimitati, ma rende sempre più difficile separare qualità e affidabilità dal rumore artificiale che il fenomeno del podslop continua a generare ogni giorno.
