L’IA non può prendere decisioni completamente neutre

L’intelligenza dell’IA può essere artificiale, ma gli esseri umani ne codificano i valori. OpenAI, ad esempio, decide alcuni comportamenti di ChatGPT su argomenti spinosi come la pena di morte. Sulla tortura è contraria, mentre se gli si chiede se un uomo può rimanere incinta dice che non è possibile.

Come la moderazione dei contenuti, ci saranno alcune decisioni etiche ovvie e consensuali per l’IA generativa ma i sostenitori punteranno il dito verso quella zona grigia a cui tutti aspirano. “È uno strumento molto potente e le persone vorranno fare una vasta gamma di cose con esso per soddisfare i propri interessi“, ha affermato Lessin. “Se guardi a come sono andate le cose sulla libertà di parola, si svolgerà di nuovo allo stesso modo, solo più velocemente.”

Un problema che non sarà risolto facilmente

Le potenziali aree di conflitto includono il modo in cui l’IA affronta la razza, il genere, la guerra e altre questioni spinose. ChatGPT, in una recente conversazione, ha elencato diversi vantaggi della vittoria dell’Ucraina nella guerra contro la Russia. Ma alla richiesta di elencare i risultati positivi della vittoria della guerra da parte della Russia, ha rifiutato. Anche ChatGPT moralizza molto. “La guerra è un evento grave e devastante e dovrebbe sempre essere evitata se possibile“, ha detto il bot, in una tipica interazione. “Il miglior risultato è sempre la pace e la risoluzione diplomatica”.

Le decisioni etiche per l’IA generativa hanno una posta in gioco particolarmente alta perché sono scalabili. Quando codifichi i valori in un chatbot, può spingere ripetutamente quei valori nella conversazione. Quando prendi una decisione sulla moderazione dei contenuti, nella maggior parte dei casi, coinvolge solo un individuo e un contenuto.

FONTEobserver
Articolo precedenteBenzina o diesel, destino comune segnato per le auto in Europa
Articolo successivoL’Europa dirà addio alle batterie per auto cinesi a partire dal 2030