Mokabyte

Dal 1996, architetture, metodologie, sviluppo software

  • Argomenti
    • Programmazione & Linguaggi
      • Java
      • DataBase & elaborazione dei dati
      • Frameworks & Tools
      • Processi di sviluppo
    • Architetture dei sistemi
      • Sicurezza informatica
      • DevOps
    • Project Management
      • Organizzazione aziendale
      • HR
      • Soft skills
    • Lean/Agile
      • Scrum
      • Teoria della complessità
      • Apprendimento & Serious Gaming
    • Internet & Digital
      • Cultura & Società
      • Conferenze & Reportage
      • Marketing & eCommerce
    • Hardware & Tecnologia
      • Intelligenza artificiale
      • UX design & Grafica
  • Ultimo numero
  • Archivio
    • Archivio dal 2006 ad oggi
    • Il primo sito web – 1996-2005
  • Chi siamo
  • Ventennale
  • Libri
  • Contatti
  • Argomenti
    • Programmazione & Linguaggi
      • Java
      • DataBase & elaborazione dei dati
      • Frameworks & Tools
      • Processi di sviluppo
    • Architetture dei sistemi
      • Sicurezza informatica
      • DevOps
    • Project Management
      • Organizzazione aziendale
      • HR
      • Soft skills
    • Lean/Agile
      • Scrum
      • Teoria della complessità
      • Apprendimento & Serious Gaming
    • Internet & Digital
      • Cultura & Società
      • Conferenze & Reportage
      • Marketing & eCommerce
    • Hardware & Tecnologia
      • Intelligenza artificiale
      • UX design & Grafica
  • Ultimo numero
  • Archivio
    • Archivio dal 2006 ad oggi
    • Il primo sito web – 1996-2005
  • Chi siamo
  • Ventennale
  • Libri
  • Contatti

Nel numero:

326 aprile
, anno 2026

Modelli LLM: Come funzionano?

VIII parte: Un primo sguardo sul Prompt Engineering

Luca Vetti Tagliati
Luca Vetti Tagliati

Senior esperto in tecnologia e trasformazione digitale, con una solida esperienza in Enterprise Architecture, ruoli di CTO, Product Ownership e posizioni di technical management, gestendo elevati budget globali.

Riconosciuto per una leadership innovativa, orientata al cliente e ai risultati, con la capacità di operare efficacemente tra strategia, esecuzione e coinvolgimento degli stakeholder per garantire il successo dei programmi.

Unisce una profonda competenza tecnica all'esperienza commerciale e gestionale, riuscendo anche a risanare programmi complessi, spesso richiesti dai regolatori, e a fornire soluzioni pragmatiche e ad alto impatto in tempi stretti.

Porta visioni strategiche supportate da un approccio concreto, allineando costantemente tecnologia, dati e innovazione agli obiettivi aziendali e normativi.

Ha conseguito un dottorato di ricerca, presso la University Of London, lavorando a tempo pieno nell’industria. Ciò gli permetti di offrire una combinazione di rigore accademico e concretezza operativa.

Recentemente è tornato a dedicarsi all’Intelligenza Artificiale e all’analisi avanzata dei dati, avendo ricoperto il ruolo di Head of Data Analytics & Innovation (2022) per due anni, pubblicando ricerche peer-reviewed e contribuendo attivamente a think tank e forum di settore sull’AI.

Tra le principali attività portate a compimento negli anni:

Progettazione dell’architettura del sistema su larga scala Impairment(s), vincitore del Global Enterprise Architecture Excellence Awards 2018 (categoria Banking)

Ideazione e implementazione del "DANTE Data Fabric", vincitore dell’iCMG Enterprise, Business & IT Architecture Excellence Awards 2015 (categoria SOA Services for Enterprise)

Progettazione della piattaforma di calcolo REF, finalista ai Banking Technology Awards 2014 (categoria Best Use of IT for risk/regulatory change)

Attribuzione del premio “Extraordinary Commitment” nel 2014

 

Pubblicazioni:

Libro UML and Software Engineering - From Theory to Practice (2004)

Libro Java Best Practices (2008)

Libro Towards Java SE 8: Notes for Developers in Java 7 (2013)

Numerosi articoli su riviste IT e online, inclusi contributi sull’Intelligenza Artificiale.

Pagina LinkedIn: https://ch.linkedin.com/in/luca-vetti-tagliati-phd-2b55618

 

Artificial Intellgence, Large Language Models

Modelli LLM: Come funzionano?

VIII parte: Un primo sguardo sul Prompt Engineering

Immagine di Luca Vetti Tagliati

Luca Vetti Tagliati

  • Questo articolo parla di: Intelligenza artificiale, Programmazione & Linguaggi

Introduzione

Una definizione accurata ed efficace dei prompt, input forniti a un modello per ottenere una risposta, è cruciale nell’interazione con i modelli LLM: la chiarezza e, più in generale, la qualità di un prompt influenzano direttamente la pertinenza, l’accuratezza e, in ultima analisi, l’utilità dell’output del modello. Non è raro sentire utenti, soprattutto meno esperti, lamentarsi della bassa qualità dell’output generato o del fatto che il modello non comprenda l’argomento e produca risultati errati. In molti casi, tuttavia, il problema deriva da prompt costruiti in modo inadeguato, che limitano o indirizzano erroneamente le risposte del modello.

Prompt ben congegnati e strutturati guidano il modello verso il risultato desiderato, riducono l’ambiguità e minimizzano i fraintendimenti, portando a interazioni più efficienti ed efficaci. Istruzioni chiare e specifiche migliorano la qualità dell’output, allineando le risposte del modello con l’intento dell’utente. Il Prompt Engineering è quindi una competenza fondamentale per massimizzare il valore ottenuto dai modelli LLM e, più in generale, dagli strumenti di IA.

Un nuovo linguaggio di programmazione?

Alcuni professionisti hanno cominciato a teorizzare che il “prompting” sia il linguaggio di programmazione del futuro. Le macchine sono ormai in grado di comprendere il linguaggio naturale opportunamente strutturato con alcuni accorgimenti. Pertanto, imparare a fornire prompt migliori ai modelli LLM potrebbe diventare una competenza fondamentale nella nuova era dell’ingegneria del software e non solo.

Nei precedenti articoli, inoltre, abbiamo discusso delle allucinazioni degli LLM, ossia casi in cui un modello produce output che appaiono plausibili ma che sono in realtà falsi, artefatti o fuorvianti. Sebbene la comunità di ricerca stia ancora lavorando a una soluzione completa, esistono diversi approcci pratici atti a mitigare il rischio di tali allucinazioni. Un uso appropriato del prompting, insieme ad approcci tipici della sfera della ricerca, come la richiesta di fonti, il fact-checking e il confronto incrociato dei risultati, hanno dimostrato di ridurre la disinformazione negli output generati dall’IA.

Il Prompt Engineering: una competenza tecnica e linguistica

Diverse strategie possono aiutare gli utenti a ottenere dagli LLM output di maggiore qualità e più personalizzati. Di conseguenza, la capacità di definire prompt efficaci sta rapidamente diventando una competenza chiave per ottenere il massimo valore da questi modelli.

In questo e nel prossimo articolo, ci concentreremo su metodi e framework atti a migliorare la qualità dei prompt. In particolare, si introdurranno metodi quali Zero-Shot Prompting, Few-Shot Prompting, Chain-of-Thought (CoT) Prompting e ReAct Prompting (Reason + Act). Presenteremo inoltre framework strutturati come Role Prompting, RACE e CRISPE. È importante notare che non esiste una distinzione universalmente accettata tra “metodi” e “framework” e che le due sfere spesso si sovrappongono tanto che i due termini sono spesso anche utilizzati in modo intercambiabile. Le strategie di prompting definiscono come interagire con un modello LLM per influenzarne il comportamento e le prestazioni, mentre i framework di prompting definiscono come strutturare l’input per garantire chiarezza, coerenza e completezza.

Ma che cos’è un prompt?

Un prompt è l’input fornito a un modello LLM per avere una risposta. Può assumere la forma di una domanda, istruzione, comando o affermazione, e può variare da una singola parola a un messaggio dettagliato e strutturato. Più in generale, un prompt comprende qualsiasi input che esprima l’intento dell’utente e fornisca al modello le informazioni necessarie per generare un output pertinente Sheldon et al., 2024].

 

Effetti di un Prompt Engineering inadeguato

Un prompt engineering inadeguato non è soltanto una questione teorica o marginale; prompt ambigui o imprecisi portano regolarmente a inefficienze misurabili, aumento dei costi e qualità inferiore degli output. Sebbene ricerche empiriche rigorose su questo tema siano ancora in fase di sviluppo, gli studi esistenti e le indagini di settore convergono nel mettere in evidenza gli effetti negativi di prompt mal progettati e di interazioni subottimali con i modelli LLM.

Tempo

Prompt scadenti o non strutturati possono aumentare il tempo necessario per completare i compiti. Uno studio controllato indipendente, condotto su sviluppatori esperti di software open source, ha rilevato come l’uso di strumenti di IA abbia aumentato il tempo di completamento dei task di circa il 19% rispetto al lavoro senza assistenza AI, nonostante gli sviluppatori percepissero di essere più veloci. Il processo tipicamente richiede diverse iterazioni di verifica output con conseguente aggiornamento e nuovo inserimento dei prompt. I tempi più lunghi sono dovuti principalmente alle attività aggiuntive di revisione e raffinamento degli output generati dall’IA, evidenziando come un prompting imperfetto e un’interazione non ottimale con il modello possano ridurre, anziché aumentare, la produttività reale [Becker et al., 2025].

Qualità

Il modo in cui i prompt sono formulati influisce fortemente sulla correttezza e sull’utilità degli output prodotti dai modelli LLM. Studi empirici nei campi dell’interazione uomo-macchina e dell’IA hanno dimostrato che approcci sistematici di progettazione dei prompt, ad esempio ricorso a metodi e framework strutturati, possono migliorare significativamente le prestazioni dei modelli nello svolgere compiti complessi. In assenza di tali approcci, prompt non strutturati tendono a produrre risultati di qualità inferiore che richiedono revisioni e verifiche più approfondite [Gutheil et al., 2026].

Contesti ad alto rischio

In ambiti decisionali critici, come la medicina, la formulazione e la struttura dei prompt possono influenzare in modo significativo l’accuratezza diagnostica e l’affidabilità degli output. Studi sui modelli LLM multimodali hanno evidenziato che approcci di prompting strutturati, come il Chain-of-Thought reasoning, migliorano la qualità diagnostica e la chiarezza delle spiegazioni rispetto a prompt naïve. Ciò suggerisce che un prompting inadeguato aumenti il rischio di risultati errati in contesti sensibili. Sebbene i valori esatti varino a seconda del dominio, questo andamento è confermato nella letteratura medico scientifica [Hassanein et al., 2025].

Rischio economico e aziendale

Le allucinazioni, insieme a output errati, rappresentano un rischio significativo per le organizzazioni. Spesso questi problemi sono originati da prompt mal definiti. Analisi di settore e casi documentati mostrano situazioni in cui output errati generati dall’IA hanno comportato negative conseguenze economiche, reputazionali e contrattuali. Ad esempio, un caso noto ha riguardato una società di consulenza che ha pubblicato un report contenente riferimenti inventati, rendendo necessarie correzioni e compensazioni. Tali episodi evidenziano come output inaffidabili, derivanti anche da prompt non ben definiti, possano tradursi in rischi economici concreti [Laurent, 2025].

Rischio decisionale che rallenta l’adozione aziendale

Le indagini sull’adozione dell’IA nelle imprese indicano che, sebbene gli investimenti continuino a crescere rapidamente, le organizzazioni incontrano difficoltà nel quantificare un ritorno sull’investimento (ROI) e spesso nel mitigare i rischi legati alla qualità degli output.

Molti dirigenti segnalano che benefici poco chiari, insieme alla necessità di framework di governance e verifica, limitano il raggiungimento dei guadagni di efficienza attesi. Ciò suggerisce che una progettazione non ottimale dell’interazione utente-modello, compreso il prompting, contribuisca a sprechi di risorse e a una più lenta creazione di valore.

 

Tecniche vs. framework

Le tecniche di prompting sono strategie che guidano il modo in cui si interagisce con un modello LLM (p.e. zero-shot, few-shot, chain-of-thought, ReAct prompting), con l’obiettivo di migliorare il ragionamento, l’apprendimento o le prestazioni complessive. Queste tecniche mirano principalmente ad influenzare il comportamento del modello.

I framework di prompting, invece, definiscono come strutturare e organizzare l’input. Forniscono template (p.e. Role Prompting, RACE, CRISPE) che garantiscono chiarezza, completezza e coerenza nella progettazione dei prompt. In questo senso, i framework modellano la forma del prompt, mentre le tecniche influenzano il modo in cui il modello lo elabora.

Tuttavia, tra queste due “categorie” esiste spesso una sovrapposizione. Alcune tecniche richiedono intrinsecamente elementi strutturali che di solito sono associati ai framework. Ad esempio, il few-shot prompting si basa sull’inclusione di esempi all’interno del prompt, mentre il chain-of-thought (CoT) prompting incoraggia un ragionamento passo dopo passo, spesso chiedendo esplicitamente al modello di “pensare” per passaggi successivi.

Nel complesso, sebbene tecniche e framework abbiano scopi distinti, sono complementari e vengono spesso utilizzati insieme per ottenere risultati ottimali.

Chiaramente, non forniremo un elenco esaustivo di metodi e framework possibili, ma ne presenteremo una selezione, tra quelli più usati, per evidenziarne le caratteristiche principali e delineare brevemente i contesti in cui ciascuno risulta più o meno efficace. Analizzando questi approcci, il lettore dovrebbe sviluppare una solida comprensione di come progettare prompt di qualità superiore.

Tecniche di prompt

Cominciamo quindi in questo articolo a guardare le tecniche di prompt, mentre nel prossimo ci occuperemo più da vicino dei framework. Negli ultimi anni, sia il mondo accademico sia quello industriale hanno sviluppato metodi e framework volti a migliorare la progettazione dei prompt. Sono emersi diversi approcci efficaci per strutturare e ottimizzare il prompt engineering per LLM di grandi dimensioni. Nei seguenti paragrafi forniremo una breve introduzione di metodi di costruzione dei prompt ampiamente riconosciuti e utilizzati sia nella ricerca sia nella pratica.

 

Zero-Shot Prompting

L’idea di base dello Zero-Shot Prompting è richiedere al modello LLM di svolgere un compito utilizzando esclusivamente istruzioni o domande espresse in linguaggio naturale, senza fornire esempi. Il modello si basa quindi interamente sul proprio addestramento pregresso per interpretare ed eseguire il compito [Groome, 2025].

Questo approccio rappresenta una baseline per valutare le capacità di generalizzazione del modello ed è alla base di molte strategie moderne di prompt engineering. È inoltre probabilmente il metodo con cui la maggior parte degli utenti entra in contatto per la prima volta con gli LLM. Storicamente, è stato ampiamente utilizzato con modelli iniziali come GPT-2 e rimane una modalità di interazione predefinita per molti modelli di base.

Gli LLM spesso possiedono conoscenze pregresse sufficienti per svolgere molti compiti senza la necessità di esempi. Il principale vantaggio di questo approccio risiede nella sua semplicità e nel basso costo in termini di formulazione dei primi prompt.

L’utilizzo tipico di questo metodo prevede un processo iterativo di raffinamento: gli utenti partono da un prompt iniziale, analizzano la risposta e successivamente lo modificano sulla base dell’output ottenuto. Questo può includere la riformulazione del testo, l’aggiunta di contesto o la semplificazione della richiesta per migliorare i risultati. In molti casi, lo stesso LLM può contribuire a perfezionare e migliorare il prompt.

Esempio

“Riassumi il seguente articolo in 3–5 punti chiave.”

Casi d’uso

  • Compiti semplici
  • Esplorazioni rapide
  • Classificazione, sintesi, estrazione di informazioni, traduzione e ragionamento di base.

Punti chiave

L’esperienza dimostra che questo approccio semplice, sebbene adeguato per compiti di base, risulta spesso insufficiente e può portare ai problemi descritti in precedenza: perdite di tempo, bassa qualità dell’output etc.

Restano valide alcune buone pratiche generali: i prompt dovrebbero ridurre al minimo l’ambiguità ed evitare linguaggio ridondante o impreciso. Ad esempio, nel caso sopra, il prompt specifica chiaramente “3–5 punti chiave” invece di un’espressione vaga come “alcuni punti”. È inoltre consigliabile indicare esplicitamente cosa il modello deve fare, piuttosto che cosa non deve fare.

 

Few-Shot Prompting

Alla base della tecnica Few-Shot, sta questa idea: i modelli LLM sono in grado di gestire molte attività relativamente semplici utilizzando un semplice approccio di tipo Zero-Shot prompting. Tuttavia, per compiti complessi, le prestazioni del modello possono essere spesso migliorate includendo esempi all’interno del prompt, al fine di guidare il modello e aumentarne l’accuratezza. Il Few-Shot prompting si basa proprio su questo principio: fornire al modello un piccolo insieme di esempi rilevanti direttamente nel prompt.

Questi esempi aiutano il modello a comprendere come affrontare e rispondere a uno specifico tipo di compito o domanda. Le dimostrazioni sono generalmente strutturate come descritto di seguito. Schemi input–output: ogni esempio fornito consiste in una coppia:

  • input, per esempio una domanda o un testo;
  • corrispondente output desiderato.

Coerenza del formato: gli esempi seguono una struttura uniforme, aiutando il modello a riconoscere e replicare il pattern atteso.

Rilevanza rispetto al compito: gli esempi sono strettamente allineati al task, mostrando chiaramente la competenza o conoscenza richiesta.

Secondo Touvron et al. [Touvron et al, 2023], la necessità ed i vantaggi del metodo Few-Shot prompting sono cominciate a emergere quando i modelli hanno cominciato a raggiungere una scala sufficientemente ampia [Kaplan et al., 2020].

Alcuni lavori di prompt engineering fanno riferimento anche al One-Shot prompting [Chen et al., 2025], che può essere visto come un compromesso tra Zero-Shot e Few-Shot prompting, in cui viene fornito un solo esempio. Questo metodo può essere usato in compiti di classificazione piuttosto semplici.

Esempio

PROMPT:

“Classifica il sentiment del resoconto della partita di calcio.

Esempio 1:

Testo: La nostra squadra ha vinto 3–0 dominando l’intera partita.

Sentiment: Positivo

Esempio 2:

Testo: Abbiamo perso 3–1 e la difesa ha commesso diversi errori.

Sentiment: Negativo

Esempio 3:

Testo: La partita è finita 1–1 con entrambe le squadre prudenti.

Sentiment: Neutrale

Ora classifica questo:

Testo: La nostra squadra ha segnato all’ultimo minuto assicurandosi una vittoria per 2–1.

Sentiment:”

 

OUTPUT:

“Positivo”

Casi d’uso

  • Situazioni in cui il formato dell’output è importante
  • Attività di classificazione
  • Situazioni in cui lo zero-shot o lo one-shot prompting non risultano sufficienti

Punti chiave

Quanto si utilizza questa tecnica è importante ricordare che:

  • la qualità degli esempi è più importante della quantità: pochi esempi ben scelti spesso superano molti esempi deboli;
  • le prestazioni sono sensibili alla selezione, all’ordine e alla formulazione degli esempi, quindi anche variazioni minori possono influenzare significativamente i risultati.

 

Chain-of-Thought (CoT) Prompting

L’idea di base di questo metodo è che il prompt istruisce il modello LLM a generare output intermedi di ragionamento prima di fornire la risposta finale. Invece di arrivare direttamente alla conclusione, il Chain-of-Thought (CoT) prompting è una tecnica che incoraggia i modelli a esplicitare un ragionamento passo dopo passo in linguaggio naturale. In particolare, lo studio Chain-of-Thought Prompting Elicits Reasoning in Large Language Models [Wei et al., 2023] mostra che, quando i modelli sono riusciti a raggiungere una sufficiente scalabilità, richiedere di fornire alcuni esempi di ragionamento esplicitato può migliorare significativamente le prestazioni in compiti multi-step, come problemi matematici, ragionamento simbolico e domande di senso comune.

Esempio

Lo schema classico assume la seguente forma:

“Risolvi il seguente problema e spiega il tuo ragionamento passo dopo passo” o ““Risolvi il seguente problema e spiega il tuo ragionamento un passo alla volta”.

 

PROMPT

“Quante volte in un giorno la lancetta delle ore e quella dei minuti di un orologio analogico si sovrappongono? Spiega il tuo ragionamento passo dopo passo.”

 

OUTPUT

  1. Velocità delle lancette

La lancetta dei minuti compie una rotazione completa ogni 60 minuti.

La lancetta delle ore compie una rotazione completa ogni 12 ore (12 × 60 = 720 minuti).

Pertanto, le loro velocità sono:

  • Lancetta dei minuti: 360 / 60 = 6 gradi al minuto
  • Lancetta delle ore: 360 / 720 = 0,5 gradi al minuto

 

  1. Velocità relativa

La lancetta dei minuti guadagna su quella delle ore a una velocità di 6 − 0,5 = 5,5 gradi al minuto

Per incontrarsi di nuovo, la lancetta dei minuti deve recuperare 360° rispetto a quella delle ore.

 

  1. Tempo tra due incontri consecutivi

Tempo = 360 / 5,5 ≈ 65,45 minuti

Quindi le lancette si incontrano circa ogni 65,45 minuti.

 

  1. Numero di incontri in 12 ore

In 12 ore ci sono 720 minuti, quindi: 720 / 65,45 ≈ 11

Pertanto, le lancette si incontrano 11 volte in 12 ore.

 

  1. Numero di incontri in 24 ore

Poiché 24 ore comprendono due cicli da 12 ore: 11 × 2 = 22

 

Risposta finale

Le lancette di un orologio analogico si incontrano 22 volte in un giorno. Sebbene il giorno abbia 24 ore, si incontrano solo 22 volte perché un incontro avviene poco dopo le 12:00, determinando un incontro in meno per ciascun ciclo di 12 ore.

Casi d’uso

  • Problemi matematici
  • Ragionamento simbolico
  • Ragionamento di buon senso
  • Domande multi-step
  • Attività di pianificazione e decision-making

Punti chiave

Le ricerche dimostrano che incoraggiare i modelli a ragionare passo dopo passo può migliorare significativamente le prestazioni nei compiti complessi. Ad esempio, prompt come “Pensiamo passo dopo passo” hanno dimostrato di aumentare sensibilmente l’accuratezza del ragionamento nei benchmark.

 

Self-Consistency Prompting

Il Self-Consistency prompting (“coerente con sé stesso”) è un’estensione del CoT prompting. La differenza principale risiede nel fatto che, invece di produrre un unico percorso di ragionamento, il modello genera molteplici percorsi di ragionamento diversificati per risolvere lo stesso problema. Ciò produce diverse potenziali risposte, tra le quali la risposta finale viene selezionata in base alla coerenza, tipicamente tramite voto di maggioranza. L’idea di fondo è che, invece di fare affidamento su una singola sequenza di ragionamento, il metodo aggrega più processi di ragionamento e sceglie la risposta che compare più frequentemente, migliorando così robustezza e accuratezza [Wang et al., 2022].

Esempio

Si consideri il seguente problema: “Ci sono un padre e un figlio. Quando il padre aveva 31 anni, il figlio ne aveva 8. Ora il padre ha il doppio dell’età del figlio. Quanti anni ha il figlio?”.

 

FASE 1: PROMPT CHAIN-OF-THOUGHT

“Ci sono un padre e un figlio. Quando il padre aveva 31 anni, il figlio ne aveva 8. Ora il padre ha il doppio dell’età del figlio. Quanti anni ha il figlio? Ragiona passo dopo passo.”

 

FASE 2: CAMPIONAMENTO DI PIÙ PERCORSI DI RAGIONAMENTO

Percorso di ragionamento 1:

  • La differenza di età rimane costante. Differenza età = 31 – 8 = 23
  • Sia x l’età attuale del figlio, allora l’età del padre è x + 23.
  • Dato che il padre ha il doppio dell’età del figlio: x + 23 = 2x
  • Risolvendo: x = 23
  • Risposta: 23

 

Percorso di ragionamento 2:

  • Il padre è sempre 23 anni più vecchio del figlio.
  • Ora il padre ha il doppio dell’età del figlio:
  • Se il figlio ha 23 anni, il padre ne ha 46 → differenza = 23
  • Condizione soddisfatta.
  • Risposta: 23

 

Percorso di ragionamento 3 (errato):

  • Il padre ha il doppio dell’età, quindi forse: 31 × 2 = 62
  • Quindi il figlio potrebbe avere 31 anni.
  • Risposta: 31

 

Percorso di ragionamento 4:

  • Sia x l’età del figlio e quindi 2x quella del padre.
  • Differenza = 2x − x = x
  • Ma sappiamo che la differenza è 23 → x = 23
  • Risposta: 23

 

FASE 3: AGGREGAZIONE DELLE RISPOSTE (SELF-CONSISTENCY)

  • Risposta 23 → compare 3 volte
  • Risposta 31 → compare 1 volta
  • Risposta finale (voto di maggioranza): 23

 

Punti chiave

In questo semplice esempio, vengono generati più percorsi di ragionamento per un problema aritmetico sulle età. Sebbene alcune traiettorie falliscano a causa di interpretazioni errate delle relazioni proporzionali tra le età, la maggioranza sfrutta correttamente la costante differenza di età e il vincolo fornito. L’aggregazione delle risposte tramite voto di maggioranza consente di ottenere la soluzione corretta, illustrando la maggiore robustezza del Self-Consistency rispetto al ragionamento basato su un singolo percorso.

 

Una nosta sul costo computazionale

Dal punto di vista del prompting, sono emersi due principali approcci per implementare il Self-Consistency, in parte a causa delle limitazioni dei primi modelli LLM. Il primo approccio non richiede di istruire esplicitamente il modello a generare più percorsi di ragionamento all’interno di un singolo prompt. Al contrario, analogamente al prompting CoT, è sufficiente richiedere un ragionamento passo dopo passo, cosicché il Self-Consistency viene implementato a livello di campionamento (decoding) piuttosto che a livello di prompt. Ciò evita di alterare la distribuzione degli output. In particolare, richiedere esplicitamente più percorsi di ragionamento all’interno di un singolo prompt può portare il modello a collassarli in un’unica risposta, generare percorsi di ragionamento non realmente indipendenti e ridurre i benefici statistici derivanti dal campionamento di traiettorie diversificate.

Il secondo approccio, al contrario, prevede di richiedere esplicitamente al modello di generare più percorsi di ragionamento all’interno di una singola risposta. Ad esempio:

 

PROMPT

“Risolvi il seguente problema […]

Genera 3–5 risposte diverse utilizzando percorsi di ragionamento distinti.

Aggrega quindi un’unica risposta finale basati su […]

Ragiona passo dopo passo.”

 

Sebbene questo approccio possa risultare utile nella pratica, si discosta dalla formulazione originale del Self-Consistency e può produrre una minore indipendenza tra i percorsi di ragionamento. Gli utenti possono sperimentare entrambi gli approcci come forma di benchmarking per valutare la robustezza e l’accuratezza del risultato finale.

In pratica, il primo approccio tende a fornire risultati migliori, poiché è maggiormente allineato ai fondamenti teorici del self-consistency.

L’approccio Self Consistency comporta un costo computazionale tipicamente più elevato, poiché richiede più percorsi paralleli generati dal modello invece di una singola inferenza. Tuttavia, in genere migliora l’accuratezza: aggregando più percorsi di ragionamento, riduce la probabilità di basarsi su una sequenza di pensiero errata. Ciò aumenta anche la robustezza agli errori di ragionamento, poiché i percorsi affetti da errore o difettosi vengono superati da quelli più coerenti e corretti. Infine, può ottenere prestazioni addirittura migliori per compiti complessi, in particolare quelli che richiedono ragionamento multi-step (ad esempio, aritmetica, conoscenza di senso comune e ragionamento simbolico).

 

ReAct Prompting (Reason + Act)

Idea di base: il modello alterna fasi di ragionamento e azioni, come il reperimento di informazioni da strumenti esterni o proprie fonti di conoscenza. L’idea centrale è consentire al modello di ragionare passo dopo passo mentre interagisce con informazioni esterne, migliorando così l’accuratezza in compiti complessi come iterazioni di domanda-risposta, la ricerca e il processo decisionale [Yao et al., 2023].

Il prompting ReAct istruisce un modello LLM a generare sequenze intercalate di tracce di ragionamento (“Thought”) e azioni orientate ad un compito specifico (“Action”), seguite da osservazioni restituite dall’ambiente. Il classico ciclo di interazione segue tipicamente questa struttura:

 

Thought → Action → Observation → Thought → Action → Observation → … → Final Answer

 

Questo approccio combina:

  • Chain-of-Thought reasoning (ragionamento esplicito passo dopo passo)
  • uso di strumenti / interazione con l’ambiente

Esempio

DOMANDA

“Chi sono considerati i migliori calciatori di tutti i tempi?”.

 

Ragionamento (Thought): La domanda è soggettiva. Dovrei cercare i giocatori più citati nelle classifiche storiche e nei principali premi come il Pallone d’Oro.

Azione: Ricerca (Search)

Input azione: classifiche dei migliori calciatori di tutti i tempi

Osservazione: Molte classifiche includono frequentemente Pelé, Diego Maradona, Lionel Messi e Cristiano Ronaldo tra i migliori giocatori.

Ragionamento (Thought): Dovrei verificare i risultati ottenuti da questi giocatori per capire perché sono considerati tra i migliori.

Azione: Ricerca (Search)

Input azione: principali successi di Pelé nel calcio

Osservazione: Pelé ha vinto tre Coppe del Mondo FIFA (1958, 1962, 1970) con il Brasile e ha segnato oltre 1000 gol in carriera.

Ragionamento (Thought): Pelé è ampiamente riconosciuto come uno dei più grandi grazie al successo nei Mondiali e al suo record realizzativo. Dovrei anche verificare Diego Maradona.

Azione: Ricerca (Search)

Input azione: principali successi di Diego Armando Maradona nel calcio

Osservazione: Vincitore della Coppa del Mondo 1986 (con una prestazione individuale dominante); FIFA Player of the Century (vincitore ex aequo). Ha portato il Napoli a due titoli di Serie A.

Ragionamento (Thought): Diego Maradona è considerato uno dei più grandi calciatori di tutti i tempi non solo per le sue statistiche, ma anche per la sua straordinaria influenza individuale sulle squadre in cui ha giocato.

Azione: Ricerca (Search)

Input azione: principali successi di Lionel Messi nel calcio

Osservazione: Lionel Messi ha vinto numerosi Palloni d’Oro, la Coppa del Mondo FIFA (2022) e molti titoli con club come Barcellona e PSG.

Ragionamento (Thought): I premi individuali e la capacità di creare gioco contribuiscono alla reputazione di Messi come uno dei migliori di sempre. Dovrei anche verificare Cristiano Ronaldo.

Azione: Ricerca (Search)

Input azione: Principali successi di Cristiano Ronaldo nel calcio

Osservazione: Cristiano Ronaldo ha vinto numerosi Palloni d’Oro, titoli di UEFA Champions League e detiene molti record realizzativi a livello internazionale.

Ragionamento (Thought): Sulla base delle classifiche storiche e dei risultati ottenuti, diversi giocatori compaiono costantemente nelle discussioni sui migliori di sempre.

 

RISPOSTA FINALE

I giocatori più comunemente citati tra i migliori calciatori di tutti i tempi includono Pelé, Diego Armando Maradona, Lionel Messi e Cristiano Ronaldo, grazie ai loro risultati eccezionali, ai record stabiliti e alla loro influenza duratura sul gioco.

Una nota sull’accesso alle informazioni

Nota. Per comprendere appieno l’esempio, è importante notare che i moderni LLM possono accedere a informazioni al di là delle proprie conoscenze integrate. RAG (Retrieval-Augmented Generation) è un metodo in cui un modello di intelligenza artificiale recupera innanzitutto informazioni rilevanti (da documenti, database o dal web) e poi le utilizza per generare una risposta più accurata. Questo processo comprende tipicamente tre fasi: il recupero di informazioni utili (retrieval), l’arricchimento delle conoscenze del modello con tali informazioni (Augmented) e la generazione di una risposta migliorata (Generation). In termini semplici, è come fornire all’AI degli appunti supplementare, permettendole di offrire risposte più accurate e aggiornate invece di basarsi solo su ciò che già “sa”.

Casi d’uso.

  • Risposta a domande complesse: migliora l’accuratezza combinando ragionamento passo dopo passo e recupero di informazioni esterne.
  • Ricerca multi-step: consente ricerca iterativa, verifica e raffinamento delle informazioni su più fonti.
  • Problem solving con strumenti: integra strumenti esterni (motori di ricerca, database, API) per ottenere risposte più affidabili e aggiornate.
  • Analisi e decision-making: supporta un ragionamento strutturato basato su evidenze, utile per valutazioni e raccomandazioni.
  • Agenti interattivi e workflow: abilita sistemi che devono agire, osservare risultati e adattarsi (es. assistenti, agenti autonomi).

Punti chiave.

Quando si applica questa strategia, è importante bilanciare ragionamento e azione. Un ragionamento troppo prolungato, eccessivo, può essere inefficiente, mentre troppe azioni possono introdurre rumore. Prompt ben progettati, invece, aiutano a mantenere un equilibrio adeguato.

Inoltre, è fondamentale essere consapevoli del rischio di propagazione degli errori: osservazioni errate possono influenzare negativamente i passaggi successivi di ragionamento fino e compromettere la validità dell’intero processo.

Infine, sebbene questa strategia offra vantaggi significativi per compiti complessi e analisi articolate, introduce un overhead eccessivo per attività relativamente semplici.

 

Chi scrive il prompt?

Come ultima considerazione di questo articolo, chiediamoci chi, effettivamente, “scrive il prompt”: un utente umano o un sistema automatizzato? Tenendo presente questo aspetto, esistono due principali scenari da considerare:

  • Interazione utente con un LLM: in questo caso, è generalmente consigliabile iniziare con un approccio di prompting semplice e, se necessario, adottare progressivamente metodi più sofisticati.
  • LLM integrato in processi automatizzati: in questo scenario, a causa delle implicazioni più ampie (ad esempio affidabilità, costi e scalabilità), è importante selezionare fin dall’inizio il metodo di prompting considerato più appropriato e validarlo rigorosamente durante la fase di test.

 

Conclusioni

Abbiamo visto in questo primo articolo sul Prompt Engineering alcuni concetti di base e poi una serie di tecniche per la scrittura dei prompt, con casistiche di esempi e casi d’uso. Ci siamo basati su esperienze di tipo aziendale e su una serie di studi di tipo “accademico” che, recentemente, hanno contribuito a sistematizzare e chiarire la situazione. Nel prossimo articolo della serie, continueremo la nostra disamina, passando all’analisi dei framework.

 

 

Riferimenti

[Google, 2026]  Google, Prompt engineering: overview and guide, 14 January 2026
https://cloud.google.com/discover/what-is-prompt-engineering

 

[Becker et al., 2025]  Joel Becker, Nate Rush, Beth Barnes, David Rein, Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity, 25 July 2025
https://arxiv.org/pdf/2507.09089

 

[Gutheil et al., 2026]  Niklas Gutheil, Valentin Mayer, Leopold Müller, Jörg Rommelt, Niklas Kühl, PromptPilot: Improving Human-AI Collaboration Through LLM-Enhanced Prompt Engineering, 1 Oct 2025 06
https://arxiv.org/pdf/2510.00555

 

[Laurent, 2025]  Adrien Laurent, AI Hallucinations in Business: Causes and Prevention, 2025
https://intuitionlabs.ai/articles/ai-hallucinations-business-causes-prevention?utm_source=chatgpt.com

 

[Hassanein et al., 2025]  Fatma EA Hassanein, Yousra Ahmed, Shaymaa Maher, Ahmed El Barbary, Asmaa Abou-Bakr, Prompt-dependent performance of multimodal AI model in oral diagnosis: a comprehensive analysis of accuracy, narrative quality, calibration, and latency versus human expert, 30 October 2025
https://pmc.ncbi.nlm.nih.gov/articles/PMC12575769/?utm_source=chatgpt.com

 

[Horton et al., 2025]  Richard Horton  Jan Michalski  Stacey Winters  Douglas Gunn  Jennifer Holland , AI ROI: The paradox of rising investment and elusive returns, 22 Oct 2025
https://www.deloitte.com/uk/en/issues/generative-ai/ai-roi-the-paradox-of-rising-investment-and-elusive-returns.html?utm_source=chatgpt.com

 

[Groome, 2025]  Imogen Groome, What is Zero-Shot Prompting?, 7 Aug  2025
https://www.ai21.com/glossary/foundational-llm/zero-shot-prompting/

 

[Brown et al. 2020]  Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, Dario Amodei, Language Models are Few-Shot Learners, last revised 22 Jul 2020
https://arxiv.org/abs/2005.14165

 

[Kaplan et al., 2020]  Jared Kaplan, Sam McCandlish, Tom Henighan, Tom B. Brown, Benjamin Chess, Rewon Child, Scott Gray, Alec Radford, Jeffrey Wu, Dario Amodei, Scaling Laws for Neural Language Models, 23 Jan 2020
https://arxiv.org/abs/2001.08361

 

[Touvron et al, 2023]  Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothee Lacroix, Baptiste Rozière, Naman Goyal, Eric Hambro, Faisal Azhar, Aurelien Rodriguez, Armand Joulin, Edouard Grave, Guillaume Lample, LLaMA: Open and Efficient Foundation Language Models, 27 Feb 2023
https://arxiv.org/pdf/2302.13971

 

[Chen et al., 2025]  Banghao Chen, Zhaofeng Zhang, Nicolas Langrené, Shengxin Zhu, Unleashing the potential of prompt engineering for large language models, Volume 6, Issue 6, 13 June 2025, 101260
https://www.sciencedirect.com/science/article/pii/S2666389925001084?utm_source=chatgpt.com

 

[Wei et al., 2023]  Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed Chi, Quoc Le, Denny Zhou, Chain-of-Thought Prompting Elicits Reasoning in Large Language Models, 10 Jan 2023
https://arxiv.org/abs/2201.11903

 

[Yao et al., 2023]  Shunyu Yao, Jeffrey Zhao, Dian Yu, Nan Du, Izhak Shafran, Karthik Narasimhan, Yuan Cao, ReAct: Synergizing Reasoning and Acting in Language Models, 10 Mar 2023
https://arxiv.org/abs/2210.03629

 

[Park, 2026]  David Park, The RACE Framework: Master Prompt Engineering in 15 Minutes, January 2026
https://automatemyjob.co.uk/blog/race-framework-prompt-engineering?utm_source=chatgpt.com

 

[Sheldon et al., 2024]  Robert Sheldon, Kinza Yasar, What is an AI prompt?, November 2024
https://www.techtarget.com/searchenterpriseai/definition/AI-prompt?utm_source=chatgpt.com

 

[Wang et al., 2022]  Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc Le, Ed Chi, Sharan Narang, Aakanksha Chowdhery, Denny Zhou , Self-Consistency Improves Chain-of-Thought Reasoning in Language Models, March 2023
https://arxiv.org/abs/2203.11171

 

 

Facebook
Twitter
LinkedIn
Luca Vetti Tagliati
Luca Vetti Tagliati

Senior esperto in tecnologia e trasformazione digitale, con una solida esperienza in Enterprise Architecture, ruoli di CTO, Product Ownership e posizioni di technical management, gestendo elevati budget globali.

Riconosciuto per una leadership innovativa, orientata al cliente e ai risultati, con la capacità di operare efficacemente tra strategia, esecuzione e coinvolgimento degli stakeholder per garantire il successo dei programmi.

Unisce una profonda competenza tecnica all'esperienza commerciale e gestionale, riuscendo anche a risanare programmi complessi, spesso richiesti dai regolatori, e a fornire soluzioni pragmatiche e ad alto impatto in tempi stretti.

Porta visioni strategiche supportate da un approccio concreto, allineando costantemente tecnologia, dati e innovazione agli obiettivi aziendali e normativi.

Ha conseguito un dottorato di ricerca, presso la University Of London, lavorando a tempo pieno nell’industria. Ciò gli permetti di offrire una combinazione di rigore accademico e concretezza operativa.

Recentemente è tornato a dedicarsi all’Intelligenza Artificiale e all’analisi avanzata dei dati, avendo ricoperto il ruolo di Head of Data Analytics & Innovation (2022) per due anni, pubblicando ricerche peer-reviewed e contribuendo attivamente a think tank e forum di settore sull’AI.

Tra le principali attività portate a compimento negli anni:

Progettazione dell’architettura del sistema su larga scala Impairment(s), vincitore del Global Enterprise Architecture Excellence Awards 2018 (categoria Banking)

Ideazione e implementazione del "DANTE Data Fabric", vincitore dell’iCMG Enterprise, Business & IT Architecture Excellence Awards 2015 (categoria SOA Services for Enterprise)

Progettazione della piattaforma di calcolo REF, finalista ai Banking Technology Awards 2014 (categoria Best Use of IT for risk/regulatory change)

Attribuzione del premio “Extraordinary Commitment” nel 2014

 

Pubblicazioni:

Libro UML and Software Engineering - From Theory to Practice (2004)

Libro Java Best Practices (2008)

Libro Towards Java SE 8: Notes for Developers in Java 7 (2013)

Numerosi articoli su riviste IT e online, inclusi contributi sull’Intelligenza Artificiale.

Pagina LinkedIn: https://ch.linkedin.com/in/luca-vetti-tagliati-phd-2b55618

 

Immagine di Luca Vetti Tagliati

Luca Vetti Tagliati

Senior esperto in tecnologia e trasformazione digitale, con una solida esperienza in Enterprise Architecture, ruoli di CTO, Product Ownership e posizioni di technical management, gestendo elevati budget globali. Riconosciuto per una leadership innovativa, orientata al cliente e ai risultati, con la capacità di operare efficacemente tra strategia, esecuzione e coinvolgimento degli stakeholder per garantire il successo dei programmi. Unisce una profonda competenza tecnica all'esperienza commerciale e gestionale, riuscendo anche a risanare programmi complessi, spesso richiesti dai regolatori, e a fornire soluzioni pragmatiche e ad alto impatto in tempi stretti. Porta visioni strategiche supportate da un approccio concreto, allineando costantemente tecnologia, dati e innovazione agli obiettivi aziendali e normativi. Ha conseguito un dottorato di ricerca, presso la University Of London, lavorando a tempo pieno nell’industria. Ciò gli permetti di offrire una combinazione di rigore accademico e concretezza operativa. Recentemente è tornato a dedicarsi all’Intelligenza Artificiale e all’analisi avanzata dei dati, avendo ricoperto il ruolo di Head of Data Analytics & Innovation (2022) per due anni, pubblicando ricerche peer-reviewed e contribuendo attivamente a think tank e forum di settore sull’AI. Tra le principali attività portate a compimento negli anni: Progettazione dell’architettura del sistema su larga scala Impairment(s), vincitore del Global Enterprise Architecture Excellence Awards 2018 (categoria Banking) Ideazione e implementazione del "DANTE Data Fabric", vincitore dell’iCMG Enterprise, Business & IT Architecture Excellence Awards 2015 (categoria SOA Services for Enterprise) Progettazione della piattaforma di calcolo REF, finalista ai Banking Technology Awards 2014 (categoria Best Use of IT for risk/regulatory change) Attribuzione del premio “Extraordinary Commitment” nel 2014   Pubblicazioni: Libro UML and Software Engineering - From Theory to Practice (2004) Libro Java Best Practices (2008) Libro Towards Java SE 8: Notes for Developers in Java 7 (2013) Numerosi articoli su riviste IT e online, inclusi contributi sull’Intelligenza Artificiale. Pagina LinkedIn: https://ch.linkedin.com/in/luca-vetti-tagliati-phd-2b55618  
Tutti gli articoli
Nello stesso numero
Loading...

Trent’anni di MokaByte

Le giornate della Moka

Autoresearch con l’AI

Insegnare alle macchine a fare ricerca autonoma

Talento, performance, carriera: uno sguardo d’insieme

VII parte: Uno sguardo alla crescita professionale

Nella stessa serie
Loading...

LLMs models: how do they work?

Part 7: Causes of hallucinations and methods to limit them

Modelli LLM: Come funzionano?

VII parte: Cause delle allucinazioni e modalità per limitarle

LLMs models: how do they work?

Part 6: AI hallucinations defined

Modelli LLM: Come funzionano?

VI parte: Definizione e tipologia delle allucinazioni

LLMs models: how do they work?

Part 5: Transformer Architecture. Working principles and adaptability

Modelli LLM: Come funzionano?

V parte: Architettura Transformer. Funzionamento e adattamenti

Modelli LLM: Come funzionano?

IV parte: Architettura Transformer. I requisiti

LLMs models: how do they work?

Part 4: Transformer Architecture. Requirements

LLMs models: how do they work?

Part 3: Embeddings

Modelli LLM: Come funzionano?

III parte: Embeddings

LLMs models: how do they work?

Part 2: BNN vs ANN, an OO View

Modelli LLM: Come funzionano?

II parte: BNN e ANN, una visione OO

Modelli LLM: Come funzionano?

I parte: ANN (Artificial Neural Network), reti neurali artificiali

LLMs models: how do they work?

Part 1: Artificial Neural Networks

Mokabyte

MokaByte è una rivista online nata nel 1996, dedicata alla comunità degli sviluppatori java.
La rivista tratta di vari argomenti, tra cui architetture enterprise e integrazione, metodologie di sviluppo lean/agile e aspetti sociali e culturali del web.

Imola Informatica

MokaByte è un marchio registrato da:
Imola Informatica S.P.A.
Via Selice 66/a 40026 Imola (BO)
C.F. e Iscriz. Registro imprese BO 03351570373
P.I. 00614381200
Cap. Soc. euro 100.000,00 i.v.

Privacy | Cookie Policy

Contatti

Contattaci tramite la nostra pagina contatti, oppure scrivendo a redazione@mokabyte.it

Seguici sui social

Facebook Linkedin Rss
Imola Informatica
Mokabyte