L’uso dell’AI nel kernel Linux non è vietato, ma da oggi ha regole precise. Linus Torvalds e i maintainer del progetto hanno deciso di affrontare la questione degli assistenti di intelligenza artificiale nel modo più pragmatico possibile: nessuna chiusura ideologica, ma una policy che mette nero su bianco chi risponde di cosa. E la risposta, in sostanza, è semplice. Chi firma una patch se ne assume la piena responsabilità, punto. Non importa se quel codice è stato scritto a mano, suggerito da GitHub Copilot o generato da qualsiasi altro strumento automatico.
Il kernel Linux gira su milioni di dispositivi. Server, smartphone Android, sistemi embedded, infrastrutture critiche. Ogni singola riga di codice ha un impatto potenzialmente enorme, e il processo di revisione è storicamente tra i più severi nel mondo dell’open source. Le nuove linee guida non cambiano questo aspetto, anzi lo rafforzano. Uno sviluppatore non può inviare una patch prodotta da un modello AI senza averla capita fino in fondo, testata e validata personalmente. I maintainer continueranno a respingere codice di bassa qualità esattamente come hanno sempre fatto, senza sconti per nessuno.
C’è poi la questione della tracciabilità. Ogni modifica deve essere spiegabile nel dettaglio: cosa fa, perché è stata scritta in quel modo, quali alternative sono state prese in considerazione. Un requisito che, per la natura stessa dei modelli AI, nessun assistente automatico può soddisfare autonomamente. Serve sempre un essere umano che ci metta la faccia e le competenze.
I rischi concreti dietro queste regole e il nodo delle licenze
La policy sull’AI nel kernel Linux non nasce da una paura generica della tecnologia. I rischi individuati dai maintainer sono molto specifici e tutt’altro che teorici. Si parla di errori logici subdoli, quelli difficili da intercettare anche durante una review attenta. Si parla di vulnerabilità di sicurezza che possono infilarsi nel codice quando questo viene generato a partire da dataset di addestramento non verificabili. E si parla, soprattutto, di un problema legale che per un progetto come questo è particolarmente spinoso.
Il kernel Linux è rilasciato sotto licenza GPL. Se un modello di intelligenza artificiale riproduce frammenti di codice coperti da licenze incompatibili, il guaio legale non ricade sul modello (che ovviamente non ha personalità giuridica) ma sul contributore umano che ha firmato quella patch. È una catena di responsabilità che non ammette ambiguità, e la policy lo chiarisce senza lasciare spazio a interpretazioni creative.
Un precedente che potrebbe fare scuola nell’intero ecosistema software
Il kernel Linux ha una lunga storia di anticipazioni. Il sistema dei maintainer, il processo di revisione strutturato, la gestione modulare dei sottosistemi: molte delle metodologie oggi considerate standard nell’industria del software sono nate o si sono perfezionate proprio all’interno di questo progetto. Non sarebbe la prima volta che una decisione presa qui finisce per influenzare l’intero ecosistema.
Una policy sull’uso dell’AI che non demonizza gli strumenti ma li inquadra con criteri tecnici rigorosi potrebbe diventare un riferimento concreto. Altri progetti open source di primo piano, da GCC a LLVM, da PostgreSQL a FreeBSD, si trovano davanti alla stessa identica questione e guarderanno con attenzione a come questa impostazione regge nel tempo, nella pratica quotidiana dello sviluppo collaborativo.
