google intelligenza artificiale ingegnere sospeso

Un ingegnere di Google è stato sospeso dopo aver reso pubbliche alcune affermazioni che testimoniavano che l’intelligenza artificiale era ormai diventata “senziente“, accendendo un dibattito su come e se l’IA può raggiungere la coscienza umana.

L’ingegnere Blake Lemoine ha affermato che il chatbot AI di Google fosse in grado di esprimere le emozioni umane, e ciò ha sollevato problemi etici. Di tutta risposta Google lo ha messo in congedo per aver condiviso informazioni riservate e ha affermato che le sue preoccupazioni non avevano alcun fondamento, un’opinione ampiamente condivisa nella comunità dell’IA.

Ciò che è più importante, affermano i ricercatori, è affrontare la questione come se l’IA potesse generare danni e pregiudizi nel mondo reale, se gli esseri umani reali vengono sfruttati nella formazione dell’IA e in che modo le principali società tecnologiche agiscono nello sviluppo della tecnologia.

La posizione di Lemoine potrebbe anche rendere più facile per le aziende tecnologiche abdicare alla responsabilità delle decisioni guidate dall’intelligenza artificiale, ha affermato Emily Bender, professoressa di linguistica computazionale all’Università di Washington. “Sono stati fatti molti sforzi in questo ambito“, ha detto. “Il problema è che più questa tecnologia viene venduta come intelligenza artificiale, più le persone sono disposte ad accettare i sistemi di intelligenza artificiale” che in futuro potrebbero causare danni nel mondo reale.

La conversazione con l’intelligenza artificiale

Sabato il Washington Post ha pubblicato un’intervista con Lemoine, che ha conversato con un sistema di intelligenza artificiale chiamato LaMDA, o Language Models for Dialogue Applications, un framework che Google utilizza per creare chatbot specializzati.

Il sistema è stato addestrato su trilioni di parole per imitare le conversazioni con gli umani. Nella sua conversazione con il chatbot, Lemoine ha affermato di aver concluso che l’IA era un essere senziente che dovrebbe avere i propri diritti. Ha detto che il sentimento non era scientifico, ma religioso: “chi sono io per dire a Dio dove può e non può mettere le anime?” ha detto su Twitter.

I dipendenti di Google di Alphabet Inc. sono rimasti in gran parte silenziosi nei canali interni oltre a Memegen. Ma per tutto il fine settimana e lunedì, i ricercatori hanno respinto l’idea che l’IA fosse veramente senziente, dicendo che le prove indicavano solo un sistema capace di imitare il comportamento umano, ma non la sensibilità. “Sta imitando percezioni o sentimenti dai dati di formazione che gli sono stati forniti, è progettato in modo intelligente e specifico per far sembrare che capisca“, ha affermato Jana Eggers, amministratore delegato della startup AI Nara Logics.

L’architettura di LaMDAsemplicemente non supporta alcune capacità chiave della coscienza simile a quella umana“, ha affermato Max Kreminski, ricercatore presso l’Università della California, a Santa Cruz, che studia i media computazionali.

Se LaMDA fosse come altri modelli linguistici di grandi dimensioni, ha affermato, non imparerebbe dalle sue interazioni con gli utenti umani. Inoltre, non avrebbe nessun’altra forma di archiviazione a lungo termine in cui potrebbe scrivere informazioni, il che significa che non sarebbe in grado di “pensare” in background.

FONTEdailynews.com
Avatar
Tech addicted, gamer ed editor su tecnoandroid.it