News

Intelligenza Artificiale, la lettera contro lo sviluppo senza controllo dell’AI

Un gruppo di eminenti scienziati, ricercatori, giornalisti e politici ha recentemente firmato una lettera per sensibilizzare l’opinione pubblica sui potenziali rischi dell’intelligenza artificiale (IA). Questo non è un evento isolato, poiché in passato figure autorevoli del mondo accademico, dell’amministrazione pubblica e dell’industria hanno espresso preoccupazioni simili. Ad esempio, a marzo, un gruppo di esperti, tra cui Elon Musk e Steve Wozniak, ha pubblicato una lettera chiedendo una pausa di sei mesi nello sviluppo di ChatGPT.

Intelligenza Artificiale: il pericolo è sempre più concreto

La lettera recente è breve ma eloquente, sottolineando che “mitigare il rischio di estinzione dell’IA dovrebbe essere una priorità globale assieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare“. Tra i firmatari figurano Sam Altman, CEO di OpenAI, Dario Amodei, CEO di Anthropic, Kevin Scott, CTO di Microsoft, Demis Hassabis, CEO di DeepMind, e i ricercatori Geoffrey Hinton e Youshua Bengio, vincitori del Turing Award per il loro lavoro sull’IA.

L’obiettivo della lettera è avviare una discussione e sensibilizzare l’opinione pubblica sui rischi potenziali dell’IA avanzata. L’Unione Europea e gli Stati Uniti hanno già intrapreso azioni in questa direzione, promuovendo un percorso partecipato per rendere l’IA non solo generativa, ma anche responsabile.

Questo sviluppo sottolinea l’importanza di un approccio cauto e responsabile nello sviluppo dell’IA. È fondamentale che tutti gli enti coinvolti, compresi i governi, le aziende e il pubblico, prendano sul serio le preoccupazioni legate all’IA e lavorino insieme per garantire che i benefici di questa tecnologia rivoluzionaria non siano offuscati dai potenziali rischi.

Condividi
Pubblicato da
Melany Alteri