I consumi energetici dell’intelligenza artificiale rappresentano una delle sfide tecnologiche più urgenti del momento, e se ne parla ormai con una frequenza che la dice lunga sulla portata del problema. Trovare soluzioni rapide, anche solo per rendere più efficienti le tecnologie già esistenti, è diventata una priorità. Una possibile risposta arriva dal Regno Unito, dove un gruppo di fisici della Loughborough University ha sviluppato un dispositivo in grado di elaborare dati complessi con un’efficienza energetica che lascia a bocca aperta: parliamo di un miglioramento pari a 2000 volte rispetto ai metodi tradizionali basati su software.
E la cosa più interessante è l’approccio. Non si tratta dell’ennesima ottimizzazione di un algoritmo o di un ritocco architetturale su chip già noti. Stavolta il punto di partenza è stato guardare alla macchina più performante che esista: il cervello umano. I ricercatori hanno progettato un hardware la cui struttura fisica imita le connessioni casuali e dense dei neuroni cerebrali. Una scelta che suona quasi poetica, ma che ha implicazioni pratiche enormi quando si parla di efficienza nei calcoli legati all’intelligenza artificiale.
Come funziona il chip neuromorfico in ossido di niobio
Invece di seguire la strada classica, quella dei computer tradizionali che eseguono calcoli attraverso programmi software molto pesanti dal punto di vista computazionale, il team ha realizzato qualcosa di radicalmente diverso. Si tratta di una pellicola sottilissima in ossido di niobio, caratterizzata da nanopori distribuiti in modo irregolare sulla superficie. Questa struttura fisica, apparentemente caotica, è in realtà ciò che conferisce al chip la sua capacità peculiare.
Grazie a questa architettura ispirata ai neuroni, il dispositivo riesce a gestire direttamente i segnali che variano nel tempo, senza dover passare per le complesse catene di elaborazione software tipiche dei sistemi convenzionali. Questo lo rende particolarmente adatto a compiti che richiedono l’analisi di sequenze temporali o il riconoscimento di schemi ricorrenti, due ambiti in cui l’intelligenza artificiale viene impiegata sempre più spesso e dove i consumi energetici tendono a esplodere.
Il fatto che un chip riesca ad abbattere i consumi di 2000 volte non è un dettaglio trascurabile. Per contestualizzare: i data center che alimentano i servizi di intelligenza artificiale consumano quantità enormi di energia, e la tendenza è in costante crescita. Ogni passo avanti nell’efficienza energetica dell’hardware dedicato all’elaborazione AI può tradursi in risparmi concreti, sia economici che ambientali.
