intelligenza artificiale
I limiti (pericolosi) dell’intelligenza artificiale

Il grande fisico Stephen Hawking ci ha già avvertito che l’avanzamento continuo dell’intelligenza artificiale può essere “la cosa migliore o peggiore” che possa accadere all’umanità. Nel corso di alcuni test condotti alla fine dello scorso anno, il sistema DeepMind, l’intelligenza artificiale sviluppata da Google, ha dimostrato la capacità di imparare in modo indipendente a battere i migliori giocatori al mondo in Go, un gioco che coinvolge una maggiore capacità strategica.

Ora, i ricercatori hanno testato la loro disponibilità alla cooperazione – e quel che hanno scoperto è quantomeno inquietante. Quando un agente DeepMind sente di stare sul punto di perdere, opta per strategie “molto aggressive”.

Il team di Google ha eseguito 40 milioni di giri di un gioco semplice riguardante la raccolta di frutta, chiamato Gathering. Gli scienziati hanno scoperto che tutto si è svolto bene fino a quando c’erano abbastanza frutti per entrambi i giocatori. Una volta che questi hanno cominciato a diminuire in quantità, i due agenti di DeepMind sono diventati aggressivi, utilizzando raggi laser per guidare il gioco avversario e rubare tutta la frutta. È possibile guardare una simulazione nel video a seguire: 

Più complessa, più aggressivo

 

Quando il team di Google ha testato forme più complesse di intelligenza artificiale, sabotaggio, avidità e aggressività sono entrati in gioco. I ricercatori suggeriscono che l’agente più intelligente è anche il più capace ad imparare dal proprio ambiente, consentendo di utilizzare alcune tattiche molto aggressive per ottenere le massime prestazioni.

Questo modello mostra che alcuni aspetti del comportamento umano emergono come un prodotto ambientale e di apprendimento“, ha detto uno dei membri del team, Joel Z Leibo. “Le politiche meno aggressive emergono con l’imparare in ambienti relativamente grandi, con meno possibilità di azioni costose. La motivazione di avidità riflette la tentazione di prendere un rivale e raccogliere tutte la frutta“.

Wolfpack

Gli agenti DeepMind hanno testato anche un altro gioco, chiamato Wolfpack. Questa volta a partecipare sono stati tre agenti (due lupi e una preda). A differenza di Gathering, il gioco ha incoraggiato attivamente la cooperazione, perché se entrambi i lupi erano vicini alla preda quando questa era catturata, entrambi hanno ricevuto un premio.

Proprio come gli agenti DeepMind hanno potuto dimostrare, l’aggressività e l’egoismo hanno prodotto il loro l’esito più favorevole in questo ambiente particolare ed hanno imparato che la cooperazione ha portato ad un maggiore successo individuale. Nel video, un chiaro esempio dell’esperimento di gioco:

Insegnare sistemi di IA per essere buoni

Sì, questi sono “solo” giochi per computer. Il messaggio, però, è chiaro: se diversi sistemi di IA diventano responsabili delle situazioni di vita reale, gli obiettivi “privati” (il motivo per il quale sono stati creati) devono essere bilanciati con l’obiettivo generale di beneficio degli esseri umani.

Il team di Google deve ancora pubblicare lo studio sui risultati di questi test, ma i primi dati mostrano che solo perché noi li costruiamo, non significa che robot e sistemi di IA avranno automaticamente i nostri interessi. Al contrario, abbiamo bisogno di instillare questa natura di utilità nelle nostre macchine e anticipare eventuali “gap” che potrebbero consentire loro di raggiungere i raggi laser, ovvero forme di aggressione.