Alexa può imitare la voce di una persona deceduta

Amazon ha svelato una nuova funzionalità in lavorazione per l’assistente virtuale Alexa: potrà imitare la voce di una persona cara defunta sulla base di una breve registrazione.

Sebbene l’IA non possa eliminare il dolore della perdita, può sicuramente far durare i loro ricordi“, ha affermato Rohit Prasad, vicepresidente senior e scienziato capo di Alexa, mercoledì alla conferenza re:MARS di Amazon a Las Vegas.

In un video riprodotto durante l’evento, ad Amazon Echo Dot viene chiesto: “Alexa, la nonna può finire di leggermi ‘Il mago di Oz’?”

Invece della voce di Alexa che legge il libro, è la voce della nonna del bambino“, dichiara un portavoce durante la conferenza. “Abbiamo dovuto imparare a produrre una voce di alta qualità con meno di un minuto di registrazione”.

Ha aggiunto: “Viviamo senza dubbio nell’era d’oro dell’IA, dove i nostri sogni e la fantascienza stanno diventando realtà“.

Situazioni del genere ricordano Black Mirror, la serie televisiva distopica che presentava un episodio in cui è stata implementata una tecnologia comparabile.

Una tecnologia che ha un potenziale, ma spaventa molto

Le reazioni su Twitter non sono mancate, molti online hanno espresso disagio per una funzione che riporta in vita la voce di un morto.

La funzionalità è ancora in fase di sviluppo e Amazon non ha ancora stabilito quando potrebbe essere lanciata pubblicamente, ma la sua anteprima arriva in un momento in cui le capacità all’avanguardia dell’intelligenza artificiale sono sotto stretto controllo.

In particolare, il dibattito tra i ricercatori si è acuito su ciò che è noto come deepfake: video o audio renderizzati con l’intelligenza artificiale per far sembrare che qualcuno abbia fatto o detto qualcosa che non è mai accaduto.

Le aziende Big Tech stanno studiando sempre più l’impatto dell’IA sulla società. Microsoft ha recentemente annunciato che stava limitando l’uso di software che imitano la voce di una persona, affermando che la funzione potrebbe essere utilizzata come arma da coloro che cercano di impersonare altre persone.

FONTEnorthcountrypublicradio
Avatar
Tech addicted, gamer ed editor su tecnoandroid.it