poisoningLo sviluppo delle intelligenze artificiali ha un nuovo nemico, si tratta del data poisoning. Prima di concentrarci su questa tecnica è bene comprendere come le intelligenze artificiali svolgano il processo di apprendimento. Per prima cosa bisogna tenere a mante che le macchine mancano dell’abilità di sviluppare reazioni causali ne i normali processi logici tipici della mente umana.

Quando si istruisce, per esempio, un sistema al riconoscimento di una immagine contente un elemento specifico, l’intelligenza artificiale non sarà in grado di distinguere gli elementi di reale interesse da quelli, potremmo definirli, di contorno; un esempio lampante potrebbe essere quello dei meme. Una macchina non sarà in grado di distinguere la parte testuale dall’immagine vera e propria.

Poisoning: la trappola per le intelligenze artificiali

 

In questo modo l’intelligenza artificiale imparerà che la figura “gatto” sarà composta anche dalla frase non avendo la capacità di distinguere i due elementi. Sfruttando questo limite è possibile inquinare la progettazione di un’intelligenza artificiale con la tecnica del data poisoning. La tecnica è concettualmente semplice; consiste nell’inserire immagini, o più in generale dati, che compromettano il processo di assimilazione delle informazioni dell’I.A. Benché la tecnica sia di semplice intuizione, la sua attuazione risulta più complessa; per riuscire ad applicarla, l’hacker di turno, dovrà riuscire ad accedere ai programmi adibiti all’istruzione dell’A.I.

Il problema però non va preso sottogamba, specie in un mondo in cui l’utilizzo dell’intelligenza artificiale sta diventando sempre più comune. Basti pensare ai rischi pericoli che causerebbe un’intelligenza artificiale preposta al riconoscimento dei segnali stradali; attraverso il data poisoning si potrebbe istruire la macchina ad interpretare un segnale di stop come un limite di velocità mettendo a repentaglio la vita dei passeggeri e non solo.