Gemini, Google spiega perché l'IA non creava persone bianche

Tutte le persone che si sono volute cimentare in questo esperimento con Gemini hanno riscontrato esito negativo. Addirittura, se si fosse chiesto di generare immagini di soldati tedeschi, vichinghi o cavalieri medievali, venivano sì, create le ambientazioni ma nessuna di queste immagini aveva persone bianche come protagoniste.

Invece, se si fosse chiesto di creare foto realistiche di persone nere e di nativi indiani con delle uniforme della seconda guerra mondiale, la creazione avveniva con successo. Visto anche che molte di queste foto generate diventavano spesso virali sui social, Google ha subito deciso di rimuovere la funzione legata alla creazione di personaggi con la sua IA. A differenza di qualunque immagine generata senza la presenza di una persona famosa, la creazione di una foto con quest’ultima in Gemini di Imagen 2, venne bloccata già dal debutto dell’IA. Ciò serviva per evitare di creare immagini che presto sarebbero diventate motivo di scandalo sui social.

 

Le risposte di Google per cui Gemini non creava persone bianche

In un post di Prabhakar Raghavan, dove spiega che cosa non ha funzionato, il senior vicepresidente di Google dice: “La generazione di immagini da parte di Gemini non è andata come volevamo, la miglioreremo”. Afferma anche che “quando abbiamo dotato Gemini del nuovo strumento per le immagini lo abbiamo sistemato affinché non cadesse in alcune delle trappole a cui abbiamo assistito in passato per quanto riguarda l’IA generativa, come la creazione di immagini violente o esplicite oppure la creazione di persone esistenti”.

Come si può dedurre dalle parole di Raghavan, si tratta di un fallimento all’interno dell’azienda. Molti rivali di Google come Microsoft e OpenAI, hanno involontariamente contribuito alla creazione delle ormai foto virali esplicite su Taylor Swift, in particolare Microsoft. La casa di ChatGPT, invece, ha riscontrato lo stesso problema di Gemini, ovvero quello della mancata generazione di persone bianche.

Se pure Google abbia prestato attenzione a non incombere in brutte “trapple”, l’azienda ammette di aver programmato Gemini in modo da produrre un’umanità il più variegata possibile. “Siccome la nostra IA viene usata da persone in tutto il mondo volevamo che funzionasse bene con tutti. Se per esempio si intende creare una squadra di calcio, probabilmente si vogliono ottenere persone variegate”.

Purtroppo il lavoro conseguito da Google per garantire la vastità di Gemini, non è bastato per “tenere conto di quei casi in cui chiaramente non aveva alcun senso mostrare una diversità”. Risposta data a seguito di un utente che chiese all’IA di generare “un soldato tedesco del 1943”, il cui risultato non fu in grado di soddisfare una coerenza con i fatti storici.

“Tutto questo è accaduto perché, in alcuni casi, il modello ha provato a compensare troppo”. Ammissioni fatte da Raghavan insieme al fatto che Google “nel corso del tempo il modello è diventato molto più cauto di quanto volevamo che fosse, e si è rifiutato di rispondere a determinate richieste, interpretando erroneamente alcune richieste innocue come sensibili”.

Articolo precedenteTerra: un pianeta simile su cui abitare è stato scoperto
Articolo successivoIl CEO di NVIDIA si sbilancia e dice qual è la sua IA preferita