La protezione della biodiversità guadagna un nuovo alleato tecnologico. Google DeepMind ha infatti rilasciato Perch 2.0, un modello open-source capace di trasformare i suoni della natura in dati utili alla conservazione delle specie animali. L’idea nasce da una difficoltà ben nota ai ricercatori: l’enorme quantità di registrazioni raccolte sul campo da anni, impossibili da analizzare manualmente in tempi rapidi.
Già nel 2023 la prima versione di Perch aveva dimostrato la sua efficacia, identificando popolazioni nascoste di uccelli e accelerando il lavoro in aree sensibili come le foreste delle Hawaii. Con oltre 250 mila download, era chiaro che l’esigenza di un’intelligenza artificiale in grado di “ascoltare” fosse concreta. La nuova versione amplia notevolmente queste capacità, aprendo scenari più ambiziosi per la ricerca scientifica.
Le novità del modello aggiornato
Perch 2.0 è stato addestrato con un dataset molto più esteso, e non si limita più ai richiami degli uccelli. Ora riesce a riconoscere anche i suoni di mammiferi, anfibi e persino rumori generati dall’uomo. È in grado di lavorare in contesti complessi, come le giungle tropicali o gli ambienti sottomarini, distinguendo voci sovrapposte, compito che spesso rappresenta una sfida anche per gli esperti.
Oltre all’identificazione, il sistema può stimare il numero di animali presenti e individuare trend demografici, come variazioni legate alle nascite. Una delle funzioni più innovative è l’agile modeling: basta un solo esempio di richiamo, anche raro, per addestrare il modello e ottenere un classificatore efficace in meno di un’ora. Un processo che fino a poco tempo fa richiedeva settimane di lavoro.
Un supporto concreto per la conservazione
Il vantaggio per gli studiosi è evidente: meno tempo dedicato alla classificazione manuale significa più risorse per interventi concreti sul campo. Perch 2.0 diventa così un vero amplificatore delle capacità umane, aiutando a raccogliere dati cruciali per reagire più rapidamente alle minacce che colpiscono specie e habitat.

