Anca Dragan è a capo di una squadra all’Università della California e lavora per scongiurare possibili scenari da incubo relativi ai rapporti tra uomini e macchine dotate di intelligenza artificiale.

Per chiarire, il nome del dipartimento è Centro per l’intelligenza artificiale compatibile, e il suo personale fa esattamente quello che vi state immaginando. Gli umani commettono errori, possono equivocare i loro desideri o dimenticare dettagli importanti. Quando si parla di intelligenza artificiale, specialmente se facciamo riferimento alla robotica avanzata, la situazione cambia. Ed ecco che entrano in scena Dragan e il suo team.

Il Centro per l’intelligenza artificiale compatibile è costruito attorno al concetto che all’intelligenza artificiale può essere insegnato a gestire le incoerenze e gli errori umani. Uno dei modi in cui questo obbiettivo viene perseguito, secondo la stessa Dragan, è quello di fare in modo che l’IA esamini un compito e ne capisca l’obiettivo, e quindi scegliere gli strumenti e le metodologie per realizzarlo.

Leggi anche:  Nvidia crea un'intelligenza artificiale che rimuove il rumore dalle fotografie

Dragan vuole spiegare alle IA anche ciò che è giusto e ciò che è sbagliato, e ciò avverrà essenzialmente insegnando ai programmi di intelligenza artificiale a cosa dare priorità nel perseguimento di un obbiettivo; in questo modo l’IA potrà agire avendo presenti sentimenti altrui e valori, alla stregua di un essere umano.

Gli sforzi di Dragan e del suo team, così come di altri esperti del settore, cercano di prevenire scenari come come I, Robot ovvero le previsioni di Bill Gates ed Elon Mask, secondo i quali l’IA porterà all’estinzione della razza umana.