Halupedia è il nome di un progetto che trasforma le allucinazioni AI in una vera e propria enciclopedia online, dove ogni singola voce è inventata, ogni citazione è fasulla e ogni nota a piè di pagina rimanda a libri che non sono mai stati scritti. Eppure, per qualche secondo, sembra tutto dannatamente credibile.
Il meccanismo è semplice e, a suo modo, geniale. Si digita una parola nella barra di ricerca, si clicca su uno dei collegamenti proposti, e un modello linguistico nel retrobottega genera in tempo reale una voce enciclopedica completa. Il tono scelto, per ammissione degli stessi creatori, è quello compassato di una casa editrice accademica dell’Ottocento. Ogni collegamento porta a una pagina che non esiste finché qualcuno non decide di seguirla. Nel momento esatto in cui si clicca, l’articolo viene prodotto dall’intelligenza artificiale con tutti gli orpelli del caso: citazioni inventate, riferimenti bibliografici a riviste che nessuna biblioteca conserva, perfino note a piè di pagina curatissime. Perché un’allucinazione che si rispetti non lesina sui dettagli.
La home page di Halupedia non nasconde nulla: dice apertamente che qui dentro è tutto finto. Ma basta entrare in una qualsiasi voce per dimenticarsene. Il linguaggio è quello giusto, la struttura pure, e gli articoli si rimandano gli uni agli altri come in una vera enciclopedia, costruendo un universo parallelo che si regge sulla coerenza interna delle sue fandonie. I nomi propri sono cliccabili, naturalmente. È possibile approfondire la storia di chiunque, e da lì rimbalzare in altre pagine altrettanto immaginarie, in una specie di tana del Bianconiglio dove la rete dei collegamenti non finisce mai perché nasce mentre la si percorre.
Un generatore di sciocchezze coerenti (o quasi)
Gli sviluppatori non volevano un generatore di sciocchezze a caso. Volevano un generatore di sciocchezze coerenti. Per questo hanno introdotto un meccanismo di scrittura prospettica: i collegamenti verso articoli ancora da generare contengono metadati nascosti che il modello legge prima di produrre il testo, così da fissare date, eventi e fatti canonici dell’universo finto. In pratica Halupedia ha un’intelligenza artificiale istruita a non contraddirsi mai.
Cosa che, va detto, le riesce con un certo margine di errore. La Royal Society for Avian Enumeration risulta sciolta nel 1927 secondo la sua pagina, ma il Censimento dei Piccioni del 1887 sostiene che si sia dissolta formalmente nel 1891. Una svista che in un universo finto è praticamente una crisi costituzionale.
C’è anche un aspetto involontariamente comico. Vedere un modello AI applicare il registro austero della saggistica vittoriana a richieste palesemente trollesche produce un effetto piuttosto esilarante. Quando qualcuno prova a forzare la mano con termini razzisti o offensivi, l’AI tende a ignorarne il significato e a produrre qualcosa di goffamente innocuo nel suo stile altisonante. Non è propriamente un sistema di moderazione, ma in qualche modo funziona.
Il confronto con Grokipedia e il senso del progetto
Inevitabile il confronto con Grokipedia, la versione anti-woke di Wikipedia voluta da Elon Musk, che però commette il peccato di citare fonti vere e tossiche, inclusi siti neonazisti, presentandole come materiale informativo legittimo. Halupedia, almeno, ha l’onestà di dichiararsi una finzione integrale. Sa di essere falsa, lo dice chiaramente, e dentro questa cornice esplicita gioca le sue carte.
Il valore del progetto, ammesso che ce ne sia uno oltre il puro divertimento, sta proprio in questo gesto: mettere in vetrina l’attitudine allucinatoria dei modelli linguistici invece di nasconderla sotto la patina di autorevolezza che troppe applicazioni AI cercano di vendere. Esiste già un subreddit dedicato a Halupedia, perché qualsiasi cosa su Internet finisce inevitabilmente in un subreddit. Ed è lì che stanno nascendo i dibattiti più surreali: discussioni accese su fatti mai accaduti, correzioni puntigliose di date inventate, e controversie su personaggi che non sono mai esistiti.
