venerdì, Aprile 11, 2025

OpenAI afferma che ChatGPT-4o è a rischio medio

di Giorgia Leanza
OpenAI ChatGPT-4o

GPT 4o, il nuovo modello di ChatGPT, è stato protagonista di una ricerca condotta e pubblicata dalla stessa OpenAI riguardo il suo livello di rischio. Il modello è stato rilasciato nel mese di maggio introducendo numerosissime opportunità per gli utenti, che possono sfruttarlo per ricevere in output risultati multimodali, fatti di testo, audio, immagini o video. GPT-4o si distingue dai modelli precedenti anche per la sua capacità di riconoscere e interpretare le emozioni e le espressioni facciali degli utenti così da fornire risposte appropriate. Proprio quest’ultima funzione avrebbe indotto un team di esperti a valutare il livello di rischio del nuovo modello di OpenAi.

OpenAi: ChatGPT-4o ha un livello di rischio medio

 

Ancor prima del rilascio del suo modello OpenAi avrebbe incaricato un gruppo di esperti per la valutazione dei suoi rischi. A distanza di qualche mese i risultati della ricerca sono stati pubblicati dalla stessa OpenAi, che classifica GPT-4o come un modello a rischio medio. 

A esser state valutate sarebbero problematiche come la possibilità che ChatGPT-4o possa sfruttare illecitamente la voce degli utenti per creare dei cloni senza alcuna autorizzazione; utilizzare clip audio protette da copyright; o realizzare contenuti erotici e violenti. Una caratteristicA che sembrerebbe aver sollevato non pochi dibattiti, inoltre, sarebbe la capacità di persuasione dei testi elaborati dal modello, che seppur in minima parte, risulterebbe abbastanza efficace.

L’analisi condotta dagli esperti, infatti, tiene conto di una media calcolata sui risultati ottenuti dal modello in quattro categorie: la sicurezza informatica, minacce biologiche, persuasione e autonomia del modello. Mentre le prime due categorie avrebbero ottenuto un livello di rischio basso, quest’ultima è stata classificata a rischio medio.

OpenAi presto potrebbe vedersi costretta ad assumere un atteggiamento più trasparente nei confronti degli utenti. Soprattutto qualora venga approvata la legge proposta dai legislatori della California, circa l’obbligo delle aziende di testare i loro modelli di AI prima di renderli disponibili per gli utenti così da garantire una maggiore sicurezza.

 

Google News Rimani aggiornato seguendoci su Google News!

2012 – 2023 Tecnoandroid.it – Gestito dalla STARGATE SRLS – P.Iva: 15525681001 Testata telematica quotidiana registrata al Tribunale di Roma CON DECRETO N° 225/2015, editore STARGATE SRLS. Tutti i marchi riportati appartengono ai legittimi proprietari.

Questo articolo potrebbe includere collegamenti affiliati: eventuali acquisti o ordini realizzati attraverso questi link contribuiranno a fornire una commissione al nostro sito.