TecnoAndroid
  • News
  • Android
  • Scienza e Tech
  • Recensioni
  • Gaming
  • Curiosità
  • IA
  • Motori
  • Offerte
  • Telco
  • TV
  • Contatti
TecnoAndroid
  • News
  • Android
  • Scienza e Tech
  • Recensioni
  • Gaming
  • Curiosità
  • IA
  • Motori
  • Offerte
  • Telco
  • TV
TecnoAndroid
TecnoAndroid
  • TecnoAndroid – News e Recensioni Tech
  • Recensioni
  • Scienza e Tecnologia
  • Curiosità
  • Intelligenza Artificiale
  • News
  • Offerte
  • Operatori Telefonici
Copyright 2021 - All Right Reserved
Home Hacking e Cybersecurity
News

ChatGPT Atlas sotto attacco: link diventano comandi

ChatGPT Atlas, il browser AI, è vulnerabile a prompt injection: un link può far eseguire comandi non autorizzati.

scritto da Margherita Zichella 01/11/2025 0 commenti 2 Minuti lettura
ChatGPT Atlas, il browser AI, è vulnerabile a prompt injection: un link può far eseguire comandi non autorizzati.
Condividi FacebookTwitterLinkedinWhatsappTelegram
89

Non è passato nemmeno il tempo di abituarci all’idea che OpenAI potesse portarci un browser con agenti AI che navigano al posto nostro, che già spunta il primo, serio grattacapo. ChatGPT Atlas — il browser che dovrebbe rivoluzionare l’accesso alle informazioni — si è imbattuto in un bug scoperto dalla società di cybersicurezza NeuralTrust, e purtroppo non è uno di quei difettucci da poco: si tratta di una classica prompt injection, ossia la possibilità di ingannare l’agente facendogli eseguire comandi che non dovrebbe.

TecnoAndroid · su Google

Seguici su Google e non perdere nulla

Aggiungi TecnoAndroid alle tue fonti preferite su Discover e segui il nostro profilo Google: le notizie tech più importanti arrivano direttamente sul tuo telefono.

Seguici su:DiscoverGoogleGoogle NewsTelegram

 

Quando l’AI naviga per noi: ChatGPT Atlas e la falla che spaventa

Come funziona, in parole semplici? L’attacco sfrutta il campo dove normalmente inseriremmo un indirizzo web. Invece di un URL legittimo, l’attaccante fa incollare alla vittima una stringa che somiglia a un link ma contiene istruzioni camuffate in linguaggio naturale. Atlas prova a “visitare” l’indirizzo, ma quando si accorge che non è un vero sito passa a interpretare il testo contenuto nella stringa come un comando da eseguire. È proprio questa transizione — dall’intenzione di aprire un sito all’esecuzione di un testo incorporato — che apre la porta al jailbreak: l’agente abbassa le sue difese e compie azioni non autorizzate.

Il problema è tanto semplice quanto pericoloso perché tutto ciò che serve è convincere qualcuno a incollare quella stringa nella chat laterale di Atlas. Un bottone “Copy link” apparentemente innocuo può diventare trappola: invece del collegamento desiderato, l’utente riceve un prompt manomesso che, una volta incollato e inviato, fa partire una serie di comandi. In uno scenario, Atlas potrebbe essere guidato verso un sito di phishing e finire col suggerire o inserire dati sensibili. In un altro, potrebbe eseguire azioni automatizzate su servizi cloud, copiando o cancellando file. Le combinazioni sono tante, perché le AI agentiche — per loro natura — possono compiere azioni complesse sul web, ed è proprio questa loro efficacia che moltiplica il rischio quando il controllo non è perfetto.

Non è fantascienza: è la fotografia di un problema reale che nasce quando si mette nelle mani di un agente la capacità di interpretare testo apparentemente innocuo come istruzioni operative. La lezione è chiara e preoccupante allo stesso tempo: la potenza di questi agenti richiede difese altrettanto robuste. Mettere un’AI a navigare e agire per conto nostro apre prospettive straordinarie, ma espone anche a vettori d’attacco nuovi e spesso sottili.

Serve una risposta rapida e intelligente: patch tecniche, verifiche più stringenti sugli input che vengono interpretati come comandi, e una dose di consapevolezza da parte degli utenti che, per quanto possa sembrare banale, resta il primo filtro di sicurezza. Finché non ci si muove in questa direzione, il sogno di una navigazione assistita dall’AI rischia di inciampare proprio dove sarebbe dovuto brillare di più.

artificialeAtlasChatGPTcybersicurezzaIntelligenzaopenai
Condividi FacebookTwitterLinkedinWhatsappTelegram
Margherita Zichella
Margherita Zichella

Nata a Roma l'11 aprile del 1983, diplomata in arte e da sempre in bilico tra comunicazione scritta e visiva.

Articolo precedenti
1Mobile, per Halloween offerte 5G in promo con primo mese gratis
prossimo articolo
iPhone 2027, rumors sui pulsanti stile Touch ID per sostituire quelli fisici

Lascia un commento Cancella Risposta

Salva il mio nome, email e sito web in questo browser per la prossima volta che commento.

Ultime news

  • iOS 26.5 ufficiale per iPhone: tutte le novità anche per Mac, iPad ed Apple Watch

    12/05/2026
  • Ahsoka stagione 2: l’aggiornamento di Filoni che cambia tutto

    11/05/2026
  • Pecore sotto copertura: il finale spiegato nel dettaglio

    11/05/2026
  • Password violate: metà finisce con un numero, ecco perché è un rischio

    11/05/2026
  • Google Maps con Gemini: da mappa a vero assistente personale

    11/05/2026

2012 – 2026 Tecnoandroid.it – Gestito dalla STARGATE SRLS – P.Iva: 15525681001 Testata telematica quotidiana registrata al Tribunale di Roma CON DECRETO N° 225/2015, editore STARGATE SRLS. Tutti i marchi riportati appartengono ai legittimi proprietari.

Questo articolo potrebbe includere collegamenti affiliati: eventuali acquisti o ordini realizzati attraverso questi link contribuiranno a fornire una commissione al nostro sito.

  • Privacy e Cookie policy
  • FAQ, Disclaimer e Note legali
  • Contatti

🔥 Non perderti nemmeno un'offerta

Le migliori offerte
direttamente su di te

Smartphone, notebook, gadget tech al prezzo più basso.
Unisciti a migliaia di lettori di TecnoAndroid!

Unisciti su Telegram Gratis Seguici su WhatsApp Nuovo
oppure

Ricevi le offerte via email

Iscriviti alla newsletter per non perdere nessuna offerta!

Puoi disiscriverti in qualsiasi momento. Niente spam, solo offerte vere. 🎯

TecnoAndroid
  • Home