Chiedere a ChatGPT, Claude o Gemini di svolgere compiti vaghi e generici non è mai una grande idea. Frasi come “scrivi un business plan per la mia nuova attività” o “fai da assistente personale” producono risultati altrettanto vaghi, perché lasciano all’intelligenza artificiale troppa libertà di interpretazione. Il modello finisce per prendere decisioni basate sui propri dati di addestramento e sui bias intrinseci, portando spesso verso direzioni del tutto indesiderate. Esiste però una tecnica specifica, nota nel mondo del prompt engineering come “decomposizione”, che permette di trasformare richieste confuse in istruzioni chiare e strutturate. Ed è più semplice di quanto si possa pensare.
Il concetto di fondo è questo: prima di affidare un compito complesso all’IA, bisognerebbe definire tutte le variabili chiave. Qual è l’ambito delle responsabilità? Con che tono deve rispondere? Quanto margine ha per prendere decisioni autonome? Quanto può permettersi di obiettare? Se tutto questo sembra un lavoro enorme da fare a monte, la buona notizia è che esiste una scorciatoia. Un meta prompt che chiede direttamente all’IA di prendere il compito assegnato e scomporlo nelle sue parti fondamentali, individuando le definizioni cruciali del progetto. In pratica, si lascia che sia il modello stesso a mostrare come sta “ragionando” sulla richiesta ricevuta.
Come funziona il prompt di decomposizione
Il prompt è stato messo a punto con l’aiuto combinato di Gemini e ChatGPT: Gemini 3 Flash ha fornito l’idea iniziale, mentre GPT 5.5 ha raffinato il risultato. La struttura è pensata per scomporre qualsiasi richiesta iniziale in una serie di 5 o 7 “dimensioni” ad alto impatto, ovvero le variabili fondamentali, i vincoli, il contesto, i requisiti di output e le scelte stilistiche che più influenzano la qualità del risultato finale.
Per ciascuna dimensione, il modello spiega perché è rilevante, quale compromesso o decisione controlla e come dovrebbe influenzare il prompt finale. Dopo questa fase di analisi, l’IA genera un prompt nuovo, più raffinato e pronto all’uso.
Facendo un esempio concreto: nel caso del compito “fai da assistente personale”, ChatGPT ha individuato sette variabili chiave. Una di queste riguardava lo stile di interazione e il tono comunicativo. Perché conta? Perché determina se l’agente si comporterà come uno stratega, un coach, un operatore o un semplice assistente. Il compromesso qui è tra risposte concise o approfondite, formali o colloquiali, direttive o collaborative. Specificare questi dettagli nel prompt fa tutta la differenza del mondo.
Il risultato: un prompt ricostruito e pronto all’uso
Dopo la fase di decomposizione, l’IA restituisce un prompt completo e strutturato. Nel caso dell’assistente personale, il risultato include principi operativi molto precisi: essere proattivi e non solo reattivi, anticipare le esigenze, suggerire passi successivi e rischi potenziali. Il modello viene istruito a usare un pensiero strutturato, scomporre i problemi in componenti chiare, presentare opzioni con relativi compromessi e raccomandare un percorso motivato. Le risposte devono essere ottimizzate per l’utilità immediata, evitando verbosità inutile.
Il prompt ricostruito prevede anche che l’IA mantenga il contesto della conversazione, faccia riferimento a decisioni precedenti, gestisca l’incertezza chiedendo chiarimenti invece di procedere con assunzioni arbitrarie, e soprattutto che collabori attivamente: obiettando quando un’idea è debole, proponendo alternative migliori, affinando il ragionamento invece di limitarsi a eseguire.
Il passaggio fondamentale, però, resta quello successivo: trattare l’output della decomposizione come un punto di partenza, rivedere le variabili definite dall’IA, modificare quello che non convince e rieseguire il prompt fino a ottenere un risultato davvero calibrato sulle proprie esigenze.
