Ogni volta che entra in scena un nuovo supercomputer, la tentazione è sempre la stessa: fermarsi a contemplare i numeri. Dettagli utili, ma che non raccontano tutta la storia. Ci sono, infatti, dispositivi come Frontier che non si fermano ai valori da record. In tali casi, ciò che emerge davvero è ciò che riescono a fare quando tali numeri vengono applicati a problemi reali. Un esempio perfetto arriva dal mondo delle piante. All’Oak Ridge National Laboratory, infatti, un gruppo di ricercatori ha presentato un nuovo metodo computazionale pensato proprio per sfruttare Frontier in modo più intelligente. L’idea di partenza è che l’hardware da solo non basta. Per trasformare una capacità di calcolo enorme in risultati utili serve un software all’altezza, capace di gestire carichi complessi senza sprecare risorse. Da tale esigenza nasce un approccio che permette di analizzare giganteschi set di immagini vegetali raddoppiando la velocità e riducendo l’uso di memoria, fino al 75%.
Il nuovo supercomputer Frontier per l’analisi delle piante
Il centro del problema sta nelle immagini iperspettrali. Uno strumento sempre più importante nelle scienze vegetali. Le fotografie comuni si limitano a catturare tre colori. Mentre tali immagini registrano centinaia di lunghezze d’onda diverse. È come passare da una semplice foto a una radiografia estremamente dettagliata. La quale è in grado di raccontare molto di più di ciò che l’occhio umano può percepire. Da tali dati è possibile ricavare informazioni sulla fisiologia della pianta, sulla sua composizione chimica e sul suo stato di salute. Individuando segnali di stress o malattie quando sono ancora invisibili.
Il problema, però, è che tale ricchezza informativa si traduce in una quantità di dati enorme. La quale è difficile da digerire anche per un supercomputer di ultima generazione. È qui che subentra il metodo chiamato Distributed Cross-Channel Hierarchical Aggregation. Invece di affrontare tutto in un unico blocco, il lavoro viene suddiviso tra più GPU. Ciascuna è incaricata di elaborare solo una porzione dei canali spettrali. Le informazioni vengono poi integrate gradualmente evitando di sovraccaricare la memoria e rendendo l’intero processo molto più efficiente. I test condotti presso l’Oak Ridge Leadership Computing Facility confermano che tale strategia funziona.
