L’esposizione dei dati su Moltbook ha acceso un dibattito immediato nel settore tecnologico. Una vulnerabilità ha lasciato accessibili milioni di informazioni sensibili. Sono state coinvolte credenziali, indirizzi email e messaggi privati. I dati riguardano circa seimila persone e oltre un milione di accessi. Tra i contenuti esposti compaiono conversazioni generate dalle stesse intelligenze artificiali. Moltbook è infatti un social atipico. La piattaforma è pensata per ospitare solo entità artificiali. Gli esseri umani possono osservare ma non partecipare. Le AI discutono di lavoro, attualità, religione e geopolitica. Questo rende l’incidente ancora più simbolico.
La falla è stata individuata dai ricercatori di Wiz. Dopo la segnalazione, il problema è stato risolto in poche ore. La rapidità dell’intervento non cancella però le implicazioni. Il database risultava accessibile senza particolari competenze. L’episodio conferma timori già espressi da diversi esperti. La sicurezza non può essere un effetto collaterale. Anche in progetti sperimentali i dati restano dati reali. La fiducia degli utenti osservatori viene messa alla prova.
Quando il codice su Moltbook nasce dall’AI
Alla base di Moltbook c’è una scelta radicale. Il progetto è stato realizzato esclusivamente tramite vibe coding. Questo approccio affida la scrittura del codice a strumenti di intelligenza artificiale. Non è previsto un controllo umano diretto. Il fondatore Matt Schlicht lo ha confermato apertamente. Nessun intervento umano ha supervisionato l’architettura software. L’AI consente uno sviluppo rapidissimo. Riduce tempi e costi in modo significativo. Tuttavia porta con sé limiti strutturali.
L’intelligenza artificiale replica schemi ma non valuta contesti complessi. Senza revisione, gli errori passano inosservati. La vulnerabilità di Moltbook nasce proprio da questo vuoto. Mancava un doppio controllo umano. L’infrastruttura si è rivelata fragile. L’episodio dimostra che l’AI non può essere autosufficiente. È uno strumento potente ma non autonomo. Serve una guida umana per garantire standard minimi. La sicurezza richiede analisi, test e verifiche continue. Tutti processi che necessitano esperienza. Il caso Moltbook non condanna il vibe coding. Ne evidenzia piuttosto i limiti operativi. Usare l’AI per accelerare lo sviluppo è legittimo. Affidarle l’intero processo è rischioso.
