blank

Intelligenza Artificiale. Qualsiasi cosa si nasconda dietro questo termine spesso (ab)usato in campo tecnologico (e non solo), una cosa è certa: per funzionare, gli algoritmi e i sistemi che lavorano ispirandosi alle dinamiche di apprendimento e di elaborazione dell’intelligenza umana devono “nutrirsi” di tanti dati.

Come viene gestita e soprattutto che tipo di impatto avrà sulla collettività?

Di questi e altri temi si è discusso durante l’incontro organizzato dalla cattedra di informatica giuridica dell’Università di Milano-Bicocca in collaborazione con ReD Open in occasione della Giornata europea della protezione dei dati personali. Una ricorrenza che ricade il 28 gennaio di ogni anno e coincide con l’anniversario – il quarantesimo – di apertura alla firma della Convenzione 108 del Consiglio d’Europa per la protezione al trattamento automatizzato dei dati personali.

Durante l’incontro, il tema della tutela della privacy è stato analizzato in base alle sue declinazioni nelle più disparate categorie merceologiche: dalla sanità all’istruzione, passando per la biometria, la finanza, il marketing, l’ambiente, l’informazione e molti altri. Ma è sull’Intelligenza Artificiale che vogliamo soffermarci.

La premessa è d’obbligo: quella dell’intelligenza artificiale è una storia appena cominciata e che, anche per questo, ha confini operativi e normativi ancora piuttosto lassi. Per questo motivo gli interventi regolatori e legislativi si sono spesso concentrati sulla rimozione dei dati che violano la privacy dei soggetti coinvolti ma senza affrontare il problema in maniera organica e strutturata.

L’UE, tuttavia, ha comunque già tracciato le linee guida per provare a mettere ordine in questo quadro in costante evoluzione. Nel pacchetto di documenti approvato dall’Unione a febbraio dello scorso anno si fa esplicito riferimento a un impatto delle nuove tecnologie “ad alto rischio” per i valori dei cittadini, diritti fondamentali compresi.

In linea di massima si potrebbe dire che l’obiettivo dell’Europa sia quello di sfruttare tutte le potenzialità applicative dell’AI, comprese le discipline di machine learning deep learning, minimizzandone al contempo i rischi. A questo scopo l’Europa sta lavorando su più binari paralleli: da un lato l’applicazione del framework esistente come regole di carattere generale e specifiche in alcuni ambiti, dall’altro prevedendo nuove norme integrative per la disciplina di alcune specifiche applicazioni di AI ad alto rischio.

Nel mezzo tutta una serie di casi “indefiniti” che spesso vengono disciplinati attraverso la cosiddetta certificazione volontaria.