News

Rischio guerra NUCLEARE a causa dell’IA, interviene OpenAI

Sono arrivati grandi aggiornamenti per quanto riguarda l’intelligenza artificiale ultimamente, con le principali società che si occupano di guardare sempre avanti. Al vertice della classifica c’è ovviamente OpenAI con il suo ChatGPT.

A quanto pare la famosa azienda avrebbe preparato una squadra che si occuperà di impedire all’intelligenza artificiale di poter dar vita ad un potenziale conflitto nucleare o di rappresentare un possibile pericolo per gli esseri umani.

L’IA può essere pericolosa, OpenAI interviene con un team

All’interno di un recente articolo pubblicato sul blog di OpenAI, l’annuncio della formazione del team Preparedness, che vede alla guida Aleksander Madry, mette in luce chiaramente la visione dell’azienda.

OpenAI ritiene infatti che le prossime iterazioni di intelligenza artificiale, superando ampiamente le capacità dei modelli attuali più avanzati, possano portare grossi benefici all’umanità intera. Tuttavia, con queste novità emergono anche dei rischi sempre più significativi che bisogna necessariamente andare ad affrontare.

Il compito principale che si prefissa il team Preparedness sarà quello di mitigare questi rischi legati ai modelli d’IA di nuova generazione. Tali pericoli includono questioni come la persuasione personalizzata, la sicurezza informatica, e minacce relative a sostanze chimiche, biologiche, radioattive e nucleari. Inoltre, si occuperà di questioni legate alla replicazione e all’adattamento autonomo di tali modelli.

Il gruppo avrà anche l’importante responsabilità di mettere su una politica di sviluppo informata dal rischio. Questa politica renderà molto più dettagliato l’approccio di OpenAI nella conduzione di valutazioni rigorose e monitoraggio delle capacità dei modelli, insieme alla creazione di misure di sicurezza. Inoltre, stabilirà una struttura di governance per garantire la responsabilità e la supervisione del processo di sviluppo, contribuendo a garantire che l’innovazione all’interno del campo dell’IA sia in linea con gli obiettivi riguardanti sicurezza e responsabilità.

Condividi
Pubblicato da
Felice Galluccio