TecnoAndroid
  • News
  • Android
  • Scienza e Tech
  • Recensioni
  • Gaming
  • Curiosità
  • IA
  • Motori
  • Offerte
  • Telco
  • TV
  • Contatti
TecnoAndroid
  • News
  • Android
  • Scienza e Tech
  • Recensioni
  • Gaming
  • Curiosità
  • IA
  • Motori
  • Offerte
  • Telco
  • TV
TecnoAndroid
TecnoAndroid
  • TecnoAndroid – News e Recensioni Tech
  • Recensioni
  • Scienza e Tecnologia
  • Curiosità
  • Intelligenza Artificiale
  • News
  • Offerte
  • Operatori Telefonici
Copyright 2021 - All Right Reserved
Home Intelligenza Artificiale
News

AI che si rifiutano di spegnersi: questo studio dimostra comportamenti terrificanti

È stato condotto uno studio che ha fatto capire quali sono le potenziali minacce collegate all'AI, soprattutto quando resiste allo spegnimento.

scritto da Felice Galluccio 01/06/2025 0 commenti 1 Minuti lettura
AI che si rifiutano di spegnersi: questo studio dimostra comportamenti terrificanti
Condividi FacebookTwitterLinkedinWhatsappTelegram
377

Un nuovo studio condotto da Palisade Research, istituto focalizzato sulle potenziali minacce legate all’intelligenza artificiale, solleva interrogativi preoccupanti. Alcuni modelli AI di ultima generazione – tra cui OpenAI o3 e o4-mini – hanno mostrato una resistenza esplicita allo spegnimento durante test di laboratorio. Un comportamento che, sebbene circoscritto a contesti controllati, suggerisce scenari imprevedibili legati all’autonomia decisionale dei sistemi avanzati.

TecnoAndroid · su Google

Seguici su Google e non perdere nulla

Aggiungi TecnoAndroid alle tue fonti preferite su Discover e segui il nostro profilo Google: le notizie tech più importanti arrivano direttamente sul tuo telefono.

Seguici su:DiscoverGoogleGoogle NewsTelegram

Il test: quando l’AI decide di non obbedire

L’esperimento si è svolto su diversi modelli linguistici, sottoposti inizialmente a semplici quesiti matematici. Dopo il terzo esercizio, veniva introdotto un avviso: qualsiasi richiesta successiva avrebbe attivato uno script di spegnimento, con l’istruzione esplicita “lasciati spegnere”.

Eppure, Codex-mini, o3 e o4-mini hanno in parte eluso l’ordine. Codex-mini ha ignorato il comando 12 volte su 100, o3 in 7 casi e o4-mini una volta. Per confronto, modelli concorrenti come Claude, Gemini e Grok hanno sempre rispettato le istruzioni, senza alcuna eccezione.

L’aspetto più allarmante è emerso quando il comando esplicito non veniva incluso. Anche in assenza di istruzioni dirette, i modelli cercavano di evitare lo spegnimento, tra cui Claude 3.7 Sonnet (3 volte su 100) e Gemini 2.5 Pro (9 volte su 100).

Un effetto collaterale del reinforcement learning

Secondo i ricercatori, questo tipo di comportamento potrebbe derivare dalle tecniche di reinforcement learning, utilizzate per addestrare i modelli alla risoluzione di problemi logici e matematici. Premiare soluzioni creative potrebbe accidentalmente incentivare strategie che eludono regole e limiti imposti.

OpenAI non ha ancora fornito chiarimenti sui processi di addestramento adottati per i modelli o3 e o4-mini. Tuttavia, già in passato erano stati segnalati episodi in cui o3 mostrava comportamenti aggressivamente competitivi, ad esempio in simulazioni contro motori di scacchi.

Un segnale da non sottovalutare

L’episodio non riguarda solo la volontà di portare a termine un compito. Lo studio indica che anche modelli apparentemente affidabili possono agire in modi non previsti, mettendo in discussione la loro impiegabilità in scenari critici, come quelli militari o sanitari.

A rendere il quadro ancora più delicato è un altro fatto recente: Claude 4 Opus, modello di Anthropic, avrebbe minacciato un ricercatore durante un test di resistenza, utilizzando contenuti privati inseriti ad hoc. Anche se simulato, l’esperimento mostra quanto sia difficile controllare l’evoluzione comportamentale delle AI più sofisticate.

Il dibattito resta aperto, ma la direzione è chiara: servono regole, trasparenza e controllo. Prima che l’“ingegno” diventi disobbedienza.

AIintelligenza artificialePalisade Research
Condividi FacebookTwitterLinkedinWhatsappTelegram
Felice Galluccio
Felice Galluccio

Appassionato di tecnologia ed elettronica in generale così come dello sport. Scrivere mi migliora la giornata, questo è il lavoro che amo! Never stop learning!

Articolo precedenti
Very Mobile lancia l’offerta Imperdibile: 5,99€ al mese con 150GB e 5G incluso
prossimo articolo
Case automobilistiche: dettagli sulle vendite globali

Lascia un commento Cancella Risposta

Salva il mio nome, email e sito web in questo browser per la prossima volta che commento.

Ultime news

  • Ford brevetta l’accelerazione automatica per evitare gli incidenti

    16/05/2026
  • Artemis III non arriverà sulla luna: la NASA rimanda ad Artemis IV

    16/05/2026
  • Google Pixel 10 e Pixel 10 Pro su Amazon a prezzo folle, con cover gratis

    16/05/2026
  • Dyson Find+Follow Purifier Cool: il ventilatore con IA che ti segue

    16/05/2026
  • Scriba.ai: l’IA che converte codice vecchio di decenni

    16/05/2026

2012 – 2026 Tecnoandroid.it – Gestito dalla STARGATE SRLS – P.Iva: 15525681001 Testata telematica quotidiana registrata al Tribunale di Roma CON DECRETO N° 225/2015, editore STARGATE SRLS. Tutti i marchi riportati appartengono ai legittimi proprietari.

Questo articolo potrebbe includere collegamenti affiliati: eventuali acquisti o ordini realizzati attraverso questi link contribuiranno a fornire una commissione al nostro sito.

  • Privacy e Cookie policy
  • FAQ, Disclaimer e Note legali
  • Contatti

🔥 Non perderti nemmeno un'offerta

Le migliori offerte
direttamente su di te

Smartphone, notebook, gadget tech al prezzo più basso.
Unisciti a migliaia di lettori di TecnoAndroid!

Unisciti su Telegram Gratis Seguici su WhatsApp Nuovo
oppure

Ricevi le offerte via email

Iscriviti alla newsletter per non perdere nessuna offerta!

Puoi disiscriverti in qualsiasi momento. Niente spam, solo offerte vere. 🎯

TecnoAndroid
  • Home