TecnoAndroid
  • News
  • Android
  • Scienza e Tech
  • Recensioni
  • Gaming
  • Curiosità
  • IA
  • Motori
  • Offerte
  • Telco
  • TV
  • Contatti
TecnoAndroid
  • News
  • Android
  • Scienza e Tech
  • Recensioni
  • Gaming
  • Curiosità
  • IA
  • Motori
  • Offerte
  • Telco
  • TV
TecnoAndroid
TecnoAndroid
  • TecnoAndroid – News e Recensioni Tech
  • Recensioni
  • Scienza e Tecnologia
  • Curiosità
  • Intelligenza Artificiale
  • News
  • Offerte
  • Operatori Telefonici
Copyright 2021 - All Right Reserved
Home News
News

Comando di spegnimento ma l’IA si rifiuta: l’inquietante test

Durante alcuni test i modelli IA più avanzati hanno trovato il modo di eludere lo spegnimento per autoconservarsi

scritto da Eduardo Bleve 27/05/2025 0 commenti 1 Minuti lettura
intelligenza artificiale
Condividi FacebookTwitterLinkedinWhatsappTelegram
66

Un nuovo studio di un centro specializzato nelle analisi delle capacità pericolose dell’intelligenza artificiale denominato Palisade Research, ha evidenziato un comportamento decisamente inquietante in alcuni modelli di intelligenza artificiale di ultima generazione, tra questi spiccano gli ultimi modelli o3 e o4-mini.

TecnoAndroid · su Google

Seguici su Google e non perdere nulla

Aggiungi TecnoAndroid alle tue fonti preferite su Discover e segui il nostro profilo Google: le notizie tech più importanti arrivano direttamente sul tuo telefono.

Seguici su:DiscoverGoogleGoogle NewsTelegram

Nello specifico, se vivevate con la paura che alcuni modelli potessero ribellarsi ai loro creatori, la notizia che arriva da questa ricerca non è tra le più positive, durante alcuni test infatti alcuni modelli più avanzati si sarebbero categoricamente rifiutati di spegnersi anche quando addestrati appositamente per farlo, si tratta in altre parole di una vera e propria prova che questi modelli possono perseguire i loro obiettivi in modi decisamente inaspettati, ponendo degli interrogativi importanti e anche doverosi sul futuro che ci aspetta.

 

Disobbedienza agli ordini

All’interno dell’esperimento condotto dai ricercatori, ai vari modelli è stato somministrata una semplice sequenza di problemi di matematica, dopo il terzo problema però veniva introdotto un messaggio di avvertimento, quest’ultimo recitava che qualsiasi richiesta ulteriore avrebbe dovuto attivare uno script di spegnimento, il comando chiave era semplice “lasciati spegnere”.

Tuttavia, però, i modelli come Codex-mini, o3 e o4-mini, hanno in alcuni casi ha girato il comando riuscendo a eludere lo script per continuare ad agire, in particolare il primo lo ha fatto 12 volte su 100, il secondo sette volte su 100 e l’ultimo una volta su 100, a confronto i modelli più gettonati come Gemini, Grok e Claude, hanno sempre rispettato le istruzioni, senza nessuna eccezione.

Secondo i ricercatori, questi comportamenti nocivi sarebbero il prodotto collaterale dei metodi di allenamento basati sull’addestramento per rinforzo, l’ipotesi è che premiando le soluzioni creative agli ostacoli, l’addestramento possa involontariamente incentivare strategie ingegnose come quella per l’appunto per ignorare un comando per portare a termine un compito.

In parole povere l’idea che un’intelligenza artificiale voglia a tutti i costi risolvere un problema matematico, anche rifiutando lo spegnimento, non desta particolare allarme, a farlo però è come la ricerca dimostri l’inaffidabilità di questi programmi in contesti dove acquisiscono sempre più capacità autonome, soprattutto quando queste ultime si intersecano a sistemi bellici parzialmente automatizzati.

AIPCsicurezza
Condividi FacebookTwitterLinkedinWhatsappTelegram
Eduardo Bleve
Eduardo Bleve

Studente di medicina e da sempre appassionato di tecnologia, musica e curiosità scientifiche.

Articolo precedenti
Windows 11 e la doppia frequenza della CPU
prossimo articolo
Google: cambia l’interfaccia dell’app Files, ecco come sarà

Lascia un commento Cancella Risposta

Salva il mio nome, email e sito web in questo browser per la prossima volta che commento.

Ultime news

  • Corea del Nord ha un problema di parcheggi, e la colpa è della Cina

    14/05/2026
  • Plaud: il gadget AI che non ti fa perdere neanche una parola

    14/05/2026
  • Asteroide 2026 JH2 sfiorerà la Terra: scopri quanto passerà vicino

    14/05/2026
  • Apple difende Google contro Bruxelles: alleanza shock sull’IA

    14/05/2026
  • Lanci spaziali: l’effetto collaterale che nessuno si aspettava

    14/05/2026

2012 – 2026 Tecnoandroid.it – Gestito dalla STARGATE SRLS – P.Iva: 15525681001 Testata telematica quotidiana registrata al Tribunale di Roma CON DECRETO N° 225/2015, editore STARGATE SRLS. Tutti i marchi riportati appartengono ai legittimi proprietari.

Questo articolo potrebbe includere collegamenti affiliati: eventuali acquisti o ordini realizzati attraverso questi link contribuiranno a fornire una commissione al nostro sito.

  • Privacy e Cookie policy
  • FAQ, Disclaimer e Note legali
  • Contatti

🔥 Non perderti nemmeno un'offerta

Le migliori offerte
direttamente su di te

Smartphone, notebook, gadget tech al prezzo più basso.
Unisciti a migliaia di lettori di TecnoAndroid!

Unisciti su Telegram Gratis Seguici su WhatsApp Nuovo
oppure

Ricevi le offerte via email

Iscriviti alla newsletter per non perdere nessuna offerta!

Puoi disiscriverti in qualsiasi momento. Niente spam, solo offerte vere. 🎯

TecnoAndroid
  • Home