google leggi robotica
Nel futuro i robot ci aiuteranno sempre più nelle nostre operazioni quotidiane, e dobbiamo essere certi che operino nel rispetto della nostra sicurezza

I laboratori di ricerca di Google si sono interrogati, come hanno fatto anche altri ricercatori, su quali siano le problematiche da risolvere per operare in sicurezza con le Intelligenze Artificiali, uno strumento potente ma che ha bisogno di regole rigide e limiti oltre cui non si può andare, pena la mancanza di qualsiasi sicurezza per gli operatori umani.

Nello specifico i ricercatori di Google hanno evidenziato 5 problemi fondamentali da poter risolvere per operare con un certo margine di sicurezza con le IA:

  • Evitare effetti collaterali negativi: come possiamo evitare che un sistema controllato da una IA non disturberà l’ambiente in cui opera in modo negativo mentre raggiunge gli obbiettivi per cui è stata programmata? Ad esempio un robot pulitore che rompe un vaso perchè si trova sul percorso più efficiente da pulire;
  • Evitare di barare per ricevere i premi conseguenti allo svolgimento di una attività: come possiamo evitare che l’IA bari per raggiungere i suoi obbiettivi? Ad esempio, che il robot pulitore non copra semplicemente il disordine con del materiale che non può vedere e rilevare, risultando così in ordine ai suoi occhi?
  • Errore scalabile: come possiamo assicurarci che una IA completi i suoi obbiettivi durante la formazione senza diventare troppo onerosa nel richiedere valutazioni sui suoi compiti? Ad esempio, se una IA richiede un feedback umano mentre compie un lavoro deve poter usare quel feedback in maniera efficiente, evitando di chiedere troppo spesso all’operatore umano e risultare così fastidiosa;
  • Esplorazione sicura: come ci assicuriamo che una IA non compia delle mosse esplorative con ripercussioni seriamente negative? Ad esempio, se un robot pulitore decidesse di sperimentare nuove strategie per pulire con un panno bagnato, come evitare che lo stesso robot non provi a pulire il pannello elettrico con un panno bagnato?
  • Robustezza al trasferimento distribuzionale: come assicurarci che una IA riconosca e si adatti ad un nuovo ambiente di lavoro completamente diverso da quello in cui è stata formata? Ad esempio, assicurarci che un robot progettato per lavorare in una fabbrica sia perfettamente sicuro e poter operare in un ufficio.

Chris Olah del team Google Research è convinto della bontà e dell’utilità dei sistemi di Intelligenza Artificiale, ma marca l’attenzione che deve essere posta nel considerare i rischi connessi allo sviluppo ed utilizzo delle IA, e su come risolvere ogni tipo di problema che potrebbe insorgere.

Non ci troveremo nell’immediato futuro a risolvere problemi relativi alle leggi della robotica come gli ingegneri Powell e Donovan dei racconti del maestro della fantascienza Asimov, ma è necessario già da oggi prendere le adeguate precauzioni per avere la sicurezza assoluta di poter operare con agenti dotati di Intelligenza Artificiale che non mettano a repentaglio la salute dell’uomo.

VIA9to5Google
FONTEGoogle Research Blog
Articolo precedenteLeEco LeMax 2 Pro con Snapdragon 821 e 8GB di RAM
Articolo successivoPerché le prestazioni e la durata della batteria di UMi Super sono migliori di Meizu M3 Note