L’open source è sotto attacco. Proprio l’ecosistema del software aperto sta vivendo una fase di forte tensione a causa dell’uso massiccio dell’intelligenza artificiale per generare codice. Strumenti basati su LLM hanno reso possibile scrivere programmi partendo da un semplice prompt, ma l’effetto collaterale è un’ondata di contributi di qualità discutibile che sta rallentando alcuni dei progetti più importanti al mondo.
A lanciare l’allarme sono realtà storiche come VLC, Blender e cURL, che denunciano un drastico calo nella qualità delle richieste di integrazione inviate dalla community.
Merge request generate con IA: il problema
Il cosiddetto vibe coding consente anche ai meno esperti di produrre codice in pochi secondi. L’accesso democratizzato allo sviluppo software è una delle promesse più forti degli LLM, ma nei progetti open source l’obiettivo non è pubblicare rapidamente nuove funzioni: la priorità resta stabilità, coerenza e manutenzione nel lungo periodo.
L’amministratore delegato di VLC ha evidenziato un abbassamento significativo della qualità media delle merge request, spesso generate tramite chatbot senza un’analisi approfondita del codice sorgente. Il risultato è un carico di lavoro maggiore per i manutentori, chiamati a revisionare contributi incoerenti o inutilizzabili.
Anche Blender, piattaforma di modellazione 3D nata open source nel 2002, ha registrato un aumento di richieste generate con IA, con un impatto diretto sulla motivazione dei moderatori. La fondazione sta preparando linee guida sull’uso degli strumenti AI, chiarendo che non sono obbligatori né raccomandati per i contributori principali.
L’IA non crea nuovi manutentori
Il nodo centrale non è la tecnologia in sé, ma l’equilibrio dell’ecosistema. L’investitore software Konstantin Vinogradov, intervistato da TechCrunch, ha osservato che l’IA non aumenta il numero di manutentori qualificati: potenzia i programmatori esperti, ma non risolve i problemi strutturali della manutenzione.
Nel software open source, il valore non risiede solo nel codice, ma nella comprensione profonda dell’architettura, nella capacità di valutare coerenza e impatto delle modifiche. Senza questa competenza, il contributo generato automaticamente rischia di trasformarsi in un peso anziché in un aiuto.
Bug bounty sospesi: il caso cURL
Le conseguenze diventano ancora più evidenti nei programmi di bug bounty, dove sono previste ricompense economiche per chi individua vulnerabilità. Il progetto cURL, ad esempio, riconosce 500 dollari per bug minori e fino a 10.000 dollari per quelli più gravi.
Secondo quanto dichiarato dallo sviluppatore Daniel Stenberg, all’inizio del 2025 circa cinque segnalazioni su sei risultavano generate con l’ausilio di LLM. Verso la fine dell’anno, solo una su venti o trenta sarebbe stata redatta interamente da un essere umano.
Di fronte all’impennata di report automatizzati, cURL ha deciso di sospendere temporaneamente il programma, penalizzando anche gli sviluppatori che da anni contribuivano con competenza e passione.
L’adozione dell’AI generativa nello sviluppo software apre opportunità concrete, ma nel contesto open source solleva una questione più profonda: se il codice diventa facile da produrre, resta ancora difficile costruire comunità solide e responsabili.
