L'addestramento delle intelligenze artificiali è un processo fondamentale e complesso, ora coadiuvato dal CRT
L’addestramento delle intelligenze artificiali è un processo fondamentale e complesso, ora coadiuvato dal CRT

Al Massachusetts Institute of Technology (MIT), i ricercatori stanno spianando la strada per un utilizzo più sicuro e responsabile dell’intelligenza artificiale (IA). Il loro approccio rivoluzionario, noto come “red teaming guidato dalla curiosità” (CRT), si propone di prevenire le risposte dannose e discriminanti degli agenti AI, ispirandosi alla curiosità umana.

 

Un aiuto per l’insegnamento delle intelligenze artificiali

In cosa consiste esattamente il CRT? Fondamentalmente, coinvolge un’intelligenza artificiale che genera domande sempre più rischiose e dannose, come quelle che potrebbero essere rivolte a un chatbot. L’obiettivo è quello di espandere la capacità dell’IA nel riconoscere e filtrare i contenuti pericolosi, considerando una gamma più ampia di domande rispetto a quelle generate solitamente da operatori umani.

Tradizionalmente, i modelli di linguaggio avanzati vengono formati attraverso una serie di domande predisposte da esseri umani. Questo metodo potrebbe però non essere sufficientemente esaustivo. Qui entra in gioco il CRT, che utilizza il “reinforcement learning” per incentivare l’IA a esplorare nuove forme di domande che inducono risposte tossiche, promuovendo l’innovazione nel processo di generazione e valutazione delle domande.

Questo approccio non solo aumenta la varietà e la pericolosità delle domande, ma spinge l’IA a esplorare nuovi modelli di parole, strutture di frasi e significati. I risultati preliminari di questo studio, pubblicati sul server di pre-stampa arXiv, dimostrano il potenziale del CRT nel superare i sistemi di addestramento automatico esistenti, generando un numero maggiore di risposte nocive e la conseguente capacità di risolvere eventuali problematiche che potrebbero crearsi online.

 

Per un futuro più tecnologico ed etico con il CRT

Questa ricerca è cruciale per garantire che le IA siano più sicure e responsabili, soprattutto considerando la loro crescente integrazione nella nostra vita quotidiana. Potrebbe rappresentare un passo fondamentale verso una futura IA in grado di prevenire risposte pericolose e di promuovere un ambiente online più sano e inclusivo.

Articolo precedenteEHang EH216-S, il taxi volante cinese che cambierà il mondo
Articolo successivoScopri chi accede al tuo profilo Instagram senza consenso