TecnoAndroid
  • News
  • Android
  • Scienza e Tech
  • Recensioni
  • Gaming
  • Curiosità
  • IA
  • Motori
  • Offerte
  • Telco
  • TV
  • Contatti
TecnoAndroid
  • News
  • Android
  • Scienza e Tech
  • Recensioni
  • Gaming
  • Curiosità
  • IA
  • Motori
  • Offerte
  • Telco
  • TV
TecnoAndroid
TecnoAndroid
  • TecnoAndroid – News e Recensioni Tech
  • Recensioni
  • Scienza e Tecnologia
  • Curiosità
  • Intelligenza Artificiale
  • News
  • Offerte
  • Operatori Telefonici
Copyright 2021 - All Right Reserved
Home Approfondimenti
News

Gemini, Google spiega perché l’IA non creava persone bianche

scritto da Massimo Lepore 05/03/2024 0 commenti 2 Minuti lettura
Gemini, Google spiega perché l'IA non creava persone bianche
Condividi FacebookTwitterLinkedinWhatsappTelegram
41

Tutte le persone che si sono volute cimentare in questo esperimento con Gemini hanno riscontrato esito negativo. Addirittura, se si fosse chiesto di generare immagini di soldati tedeschi, vichinghi o cavalieri medievali, venivano sì, create le ambientazioni ma nessuna di queste immagini aveva persone bianche come protagoniste.

TecnoAndroid · su Google

Seguici su Google e non perdere nulla

Aggiungi TecnoAndroid alle tue fonti preferite su Discover e segui il nostro profilo Google: le notizie tech più importanti arrivano direttamente sul tuo telefono.

Seguici su:DiscoverGoogleGoogle NewsTelegram

Invece, se si fosse chiesto di creare foto realistiche di persone nere e di nativi indiani con delle uniforme della seconda guerra mondiale, la creazione avveniva con successo. Visto anche che molte di queste foto generate diventavano spesso virali sui social, Google ha subito deciso di rimuovere la funzione legata alla creazione di personaggi con la sua IA. A differenza di qualunque immagine generata senza la presenza di una persona famosa, la creazione di una foto con quest’ultima in Gemini di Imagen 2, venne bloccata già dal debutto dell’IA. Ciò serviva per evitare di creare immagini che presto sarebbero diventate motivo di scandalo sui social.

 

Le risposte di Google per cui Gemini non creava persone bianche

In un post di Prabhakar Raghavan, dove spiega che cosa non ha funzionato, il senior vicepresidente di Google dice: “La generazione di immagini da parte di Gemini non è andata come volevamo, la miglioreremo”. Afferma anche che “quando abbiamo dotato Gemini del nuovo strumento per le immagini lo abbiamo sistemato affinché non cadesse in alcune delle trappole a cui abbiamo assistito in passato per quanto riguarda l’IA generativa, come la creazione di immagini violente o esplicite oppure la creazione di persone esistenti”.

Come si può dedurre dalle parole di Raghavan, si tratta di un fallimento all’interno dell’azienda. Molti rivali di Google come Microsoft e OpenAI, hanno involontariamente contribuito alla creazione delle ormai foto virali esplicite su Taylor Swift, in particolare Microsoft. La casa di ChatGPT, invece, ha riscontrato lo stesso problema di Gemini, ovvero quello della mancata generazione di persone bianche.

Se pure Google abbia prestato attenzione a non incombere in brutte “trapple”, l’azienda ammette di aver programmato Gemini in modo da produrre un’umanità il più variegata possibile. “Siccome la nostra IA viene usata da persone in tutto il mondo volevamo che funzionasse bene con tutti. Se per esempio si intende creare una squadra di calcio, probabilmente si vogliono ottenere persone variegate”.

Purtroppo il lavoro conseguito da Google per garantire la vastità di Gemini, non è bastato per “tenere conto di quei casi in cui chiaramente non aveva alcun senso mostrare una diversità”. Risposta data a seguito di un utente che chiese all’IA di generare “un soldato tedesco del 1943”, il cui risultato non fu in grado di soddisfare una coerenza con i fatti storici.

“Tutto questo è accaduto perché, in alcuni casi, il modello ha provato a compensare troppo”. Ammissioni fatte da Raghavan insieme al fatto che Google “nel corso del tempo il modello è diventato molto più cauto di quanto volevamo che fosse, e si è rifiutato di rispondere a determinate richieste, interpretando erroneamente alcune richieste innocue come sensibili”.

biancheGeminigoogleimmaginipersone
Condividi FacebookTwitterLinkedinWhatsappTelegram
Massimo Lepore

Mi chiamo Lepore Massimo, sono uno studente e cerco di dare il meglio in tutte le cose che faccio.

Articolo precedenti
Terra: un pianeta simile su cui abitare è stato scoperto
prossimo articolo
Il CEO di NVIDIA si sbilancia e dice qual è la sua IA preferita

Lascia un commento Cancella Risposta

Salva il mio nome, email e sito web in questo browser per la prossima volta che commento.

Ultime news

  • Studio Ghibli svela il mistero di Kiki dopo 37 anni: la verità sul gatto Jiji

    14/05/2026
  • Cybersecurity, l’AI ha già cambiato le regole: i numeri fanno paura

    14/05/2026
  • Polestar 3 e 4: aggiornamenti enormi per i due modelli

    14/05/2026
  • Mazda3 2027: aggiornamenti quasi invisibili ma molto importanti

    14/05/2026
  • Voli a rischio quest’estate: 3 app che ti avvisano prima di arrivare in aeroporto

    14/05/2026

2012 – 2026 Tecnoandroid.it – Gestito dalla STARGATE SRLS – P.Iva: 15525681001 Testata telematica quotidiana registrata al Tribunale di Roma CON DECRETO N° 225/2015, editore STARGATE SRLS. Tutti i marchi riportati appartengono ai legittimi proprietari.

Questo articolo potrebbe includere collegamenti affiliati: eventuali acquisti o ordini realizzati attraverso questi link contribuiranno a fornire una commissione al nostro sito.

  • Privacy e Cookie policy
  • FAQ, Disclaimer e Note legali
  • Contatti

🔥 Non perderti nemmeno un'offerta

Le migliori offerte
direttamente su di te

Smartphone, notebook, gadget tech al prezzo più basso.
Unisciti a migliaia di lettori di TecnoAndroid!

Unisciti su Telegram Gratis Seguici su WhatsApp Nuovo
oppure

Ricevi le offerte via email

Iscriviti alla newsletter per non perdere nessuna offerta!

Puoi disiscriverti in qualsiasi momento. Niente spam, solo offerte vere. 🎯

TecnoAndroid
  • Home