L’intelligenza artificiale avanza a grandi passi in ogni settore possibile e immaginabile — dalla medicina alla giustizia, dalla finanza alla sicurezza, e così via. Nel frattempo, alcuni ricercatori hanno individuato un punto debole dell’AI tanto banale quanto potenzialmente pericoloso: l’eccesso di dati. Parliamo di una tecnica nota come “data poisoning by overload“, un meccanismo che punta a ingannare o rallentare le AI semplicemente sommergendole di contenuti non rilevanti, ridondanti o volutamente ambigui.
Il principio è semplice, ogni sistema AI ha bisogno di analizzare grandi quantità di dati per prendere decisioni o formulare risposte. Ma se quei dati sono davvero numerosi o troppo caotici, anche il modello più sofisticato può andare in crisi. Non si tratta solo di rallentamenti, tuttavia. Infatti, in certi casi l’intelligenza artificiale finisce per formulare risposte errate, parziali o fuorvianti.
Troppi dati possono diventare un’arma contro l’AI, una vulnerabilità che apre le porte a scenari preoccupanti
Alcuni esperimenti, portati avanti da università e laboratori specializzati in cybersecurity, hanno dimostrato che anche i modelli linguistici più avanzati possono essere “confusi” con input in grandi quantità e incoerenti, soprattutto se somministrati in sequenza o attraverso canali non controllati. Pensiamo ad esempio ai sistemi di moderazione automatica nei social media o alle AI che valutano curriculum nei processi di selezione. In entrambi i casi citati un sovraccarico di dati potrebbe compromettere l’efficacia, falsare i risultati o creare vulnerabilità facilmente sfruttabili.
Secondo alcuni esperti, questa tecnica potrebbe essere usata persino in scenari geopolitici o per garantire disinformazione su alcuni temi, rendendo difficile per le AI la distinzione tra verità e fake news. Per contrastare questo fenomeno, si stanno studiando sistemi di filtraggio intelligente e nuove architetture più resistenti al caos che può crearsi online. In un mondo sempre più basato sull’intelligenza artificiale, questo “piccolo trucco” ci ricorda che anche la mente artificiale ha bisogno di equilibrio, e che troppa informazione può essere tanto pericolosa quanto la sua mancanza.
