INTELLIGENZA ARTIFICIALE

Sam Altman, CEO di OpenAI, ha sviluppato l’intelligenza artificiale ChatGPT, ma ha avvertito che la tecnologia comporta pericoli reali.

Altman, 37 anni, ha sottolineato che le autorità di regolamentazione e la società devono essere coinvolte nella tecnologia per proteggersi da conseguenze potenzialmente negative per l’umanità. “Dobbiamo stare attenti”, ha detto Altman ad ABC News giovedì.

Sono particolarmente preoccupato che questi modelli possano essere utilizzati per la disinformazione su larga scala“, ha affermato Altman.Ora che stanno migliorando nella scrittura di codice per computer, potrebbero essere utilizzati per attacchi informatici offensivi”.

Ma nonostante i pericoli, ha detto, potrebbe anche essere “la più grande tecnologia che l’umanità abbia mai sviluppato“.

L’avvertimento è arrivato quando OpenAI ha rilasciato l’ultima versione del suo modello di linguaggio AI, GPT-4, a meno di quattro mesi dal rilascio della versione originale ed è diventata l’applicazione consumer in più rapida crescita nella storia.

Nell’intervista, ha affermato che, sebbene la nuova versione non fosse “perfetta“, ha  ottenuto il 90% di risposte positive negli Stati Uniti negli esami di abilitazione e un punteggio quasi perfetto nel test di matematica SAT del liceo. Potrebbe anche scrivere codice per computer nella maggior parte dei linguaggi di programmazione, ha detto.

Tutti sono molto preoccupati

I timori per l’intelligenza artificiale rivolta ai consumatori e l’intelligenza artificiale in generale si concentrano sul fatto che gli esseri umani vengano sostituiti dalle macchine. Ma Altman ha sottolineato che l’intelligenza artificiale funziona solo sotto la direzione o l’input degli umani.

Aspetta che qualcuno gli dia un input. Questo è uno strumento sotto il controllo umano.” Ma ha detto di avere dubbi su quali umani avessero il controllo degli input.

Il CEO di Tesla, Elon Musk, uno dei primi investitori in OpenAI quando era ancora una società senza scopo di lucro, ha ripetuto spesso che l’intelligenza artificiale è più pericolosa di un’arma nucleare.

Musk ha espresso preoccupazione per il fatto che Microsoft, che ospita ChatGPT sul suo motore di ricerca Bing, abbia sciolto la sua divisione di supervisione etica. “Non esiste alcuna supervisione normativa dell’IA, che è un problema importante.

FONTEtheguardian
Articolo precedenteGruppo Volkswagen, in Spagna ci si dedica alla fabbricazione di batterie
Articolo successivoGli smartphone del futuro diventeranno sempre più indispensabili e potenti