Riguardo l’uso dell’intelligenza artificiale ci si concentra soprattutto sugli effetti più vistosi: immagini surreali, video, testi che sembrano scritti bene. Poi la discussione ha iniziato a spostarsi altrove, in scenari meno appariscenti, ma più sensibili. Uno di questi è il mondo dello sviluppo open-source. Negli ultimi giorni il team di Godot Engine ha raccontato una dinamica che molti maintainer stanno iniziando a riconoscere. Non si parla di un generico “uso dell’AI”, ma di un’ondata di pull request contenenti codice prodotto da LLM. In teoria dovrebbe essere una buona notizia: più contributi, più evoluzione del progetto. In pratica, però, il quadro è più complicato. Diverse patch risultano inutili, mal integrate o non funzionanti. E spesso sono accompagnate da spiegazioni lunghissime che promettono chiarezza, ma finiscono per creare l’effetto opposto.
Godot evidenzia un nuovo scenario per l’uso dell’AI
A descrivere il clima è Rémi Verschelde, figura chiave nella gestione del repository e cofondatore di W4 Games. Ogni contributo va esaminato, testato, validato. Quando il volume cresce in modo esponenziale e la qualità media cala, il lavoro di revisione diventa un imbuto che assorbe tempo ed energie. E a lungo andare pesa anche sul morale del team, costretto a domandarsi continuamente quanto ci sia di realmente verificato dietro ogni proposta.
Il problema, infatti, non è soltanto capire se il codice è stato scritto con l’AI. La questione più spinosa riguarda l’affidabilità. Che non si tratta di un caso isolato lo suggerisce il fatto che GitHub ha recentemente ammesso l’emergere del fenomeno del “code slop“. Ciò introducendo strumenti per limitare o filtrare le pull request. Una presa di posizione interessante, considerando che Microsoft, proprietaria della piattaforma, è tra i principali promotori delle tecnologie di AI applicate allo sviluppo software.
Il team di Godot, dal canto suo, si trova davanti a un equilibrio delicato. I sistemi di rilevamento automatico esistono, ma non spiccano per precisione e rischiano di generare falsi positivi. Bloccare contributi validi mentre si cerca di arginare quelli problematici sarebbe un danno doppio per un progetto open-source.
Considerando tali premesse, emerge che l’AI può produrre codice a una velocità impressionante, ma non sostituisce il lavoro umano. Quest’ultimo, infatti, risulta necessario per valutarlo. Revisione, testing, integrazione restano attività che richiedono competenza e tempo. Ed è qui che Verschelde lascia cadere un’osservazione tanto semplice quanto difficile da ignorare. Secondo le sue parole, con più risorse economiche, Godot avrebbe più capacità di gestire tale pressione. Un promemoria quasi banale, ma centrale. La sostenibilità dei progetti dipende ancora, in larga parte, dagli esseri umani che li portano avanti.
