Mokabyte

Dal 1996, architetture, metodologie, sviluppo software

  • Argomenti
    • Programmazione & Linguaggi
      • Java
      • DataBase & elaborazione dei dati
      • Frameworks & Tools
      • Processi di sviluppo
    • Architetture dei sistemi
      • Sicurezza informatica
      • DevOps
    • Project Management
      • Organizzazione aziendale
      • HR
      • Soft skills
    • Lean/Agile
      • Scrum
      • Teoria della complessità
      • Apprendimento & Serious Gaming
    • Internet & Digital
      • Cultura & Società
      • Conferenze & Reportage
      • Marketing & eCommerce
    • Hardware & Tecnologia
      • Intelligenza artificiale
      • UX design & Grafica
  • Ultimo numero
  • Archivio
    • Archivio dal 2006 ad oggi
    • Il primo sito web – 1996-2005
  • Chi siamo
  • Libri
  • Contatti e newsletter
  • Argomenti
    • Programmazione & Linguaggi
      • Java
      • DataBase & elaborazione dei dati
      • Frameworks & Tools
      • Processi di sviluppo
    • Architetture dei sistemi
      • Sicurezza informatica
      • DevOps
    • Project Management
      • Organizzazione aziendale
      • HR
      • Soft skills
    • Lean/Agile
      • Scrum
      • Teoria della complessità
      • Apprendimento & Serious Gaming
    • Internet & Digital
      • Cultura & Società
      • Conferenze & Reportage
      • Marketing & eCommerce
    • Hardware & Tecnologia
      • Intelligenza artificiale
      • UX design & Grafica
  • Ultimo numero
  • Archivio
    • Archivio dal 2006 ad oggi
    • Il primo sito web – 1996-2005
  • Chi siamo
  • Libri
  • Contatti e newsletter

Nel numero:

327 maggio
, anno 2026

Modelli LLM: Come funzionano?

IX parte: Prompt Engineering con i framework

Luca Vetti Tagliati
Luca Vetti Tagliati

Senior esperto in tecnologia e trasformazione digitale, con una solida esperienza in Enterprise Architecture, ruoli di CTO, Product Ownership e posizioni di technical management, gestendo elevati budget globali.

Riconosciuto per una leadership innovativa, orientata al cliente e ai risultati, con la capacità di operare efficacemente tra strategia, esecuzione e coinvolgimento degli stakeholder per garantire il successo dei programmi.

Unisce una profonda competenza tecnica all'esperienza commerciale e gestionale, riuscendo anche a risanare programmi complessi, spesso richiesti dai regolatori, e a fornire soluzioni pragmatiche e ad alto impatto in tempi stretti.

Porta visioni strategiche supportate da un approccio concreto, allineando costantemente tecnologia, dati e innovazione agli obiettivi aziendali e normativi.

Ha conseguito un dottorato di ricerca, presso la University Of London, lavorando a tempo pieno nell’industria. Ciò gli permetti di offrire una combinazione di rigore accademico e concretezza operativa.

Recentemente è tornato a dedicarsi all’Intelligenza Artificiale e all’analisi avanzata dei dati, avendo ricoperto il ruolo di Head of Data Analytics & Innovation (2022) per due anni, pubblicando ricerche peer-reviewed e contribuendo attivamente a think tank e forum di settore sull’AI.

Tra le principali attività portate a compimento negli anni:

Progettazione dell’architettura del sistema su larga scala Impairment(s), vincitore del Global Enterprise Architecture Excellence Awards 2018 (categoria Banking)

Ideazione e implementazione del "DANTE Data Fabric", vincitore dell’iCMG Enterprise, Business & IT Architecture Excellence Awards 2015 (categoria SOA Services for Enterprise)

Progettazione della piattaforma di calcolo REF, finalista ai Banking Technology Awards 2014 (categoria Best Use of IT for risk/regulatory change)

Attribuzione del premio “Extraordinary Commitment” nel 2014

 

Pubblicazioni:

Libro UML and Software Engineering - From Theory to Practice (2004)

Libro Java Best Practices (2008)

Libro Towards Java SE 8: Notes for Developers in Java 7 (2013)

Numerosi articoli su riviste IT e online, inclusi contributi sull’Intelligenza Artificiale.

Pagina LinkedIn: https://ch.linkedin.com/in/luca-vetti-tagliati-phd-2b55618

 

Artificial Intellgence, Large Language Models

Modelli LLM: Come funzionano?

IX parte: Prompt Engineering con i framework

Immagine di Luca Vetti Tagliati

Luca Vetti Tagliati

  • Questo articolo parla di: Intelligenza artificiale, Programmazione & Linguaggi

Template per la struttura dei prompt

Dopo aver analizzato i singoli metodi di prompting, l’attenzione si sposta ora sui framework di prompting. Si tratta di template predefiniti, semplici framework che aiutano gli utenti a scrivere prompt chiari ed efficaci per modelli LLM. Invece di porre domande vaghe, questi template guidano gli utenti a includere contesto, obiettivi, formato e vincoli, consentendo così ai modelli di produrre risposte più accurate e utili. Sono ampiamente utilizzati nel prompt engineering, nella creazione di contenuti, nella ricerca e nei processi aziendali.

 

1. Role Prompting (Persona Prompting)

Cominciamo la nostra panoramica con il Role Prompting.

Idea di base

Il Role Prompting è un framework in cui l’utente istruisce un modello LLM ad assumere un ruolo, una prospettiva o un’identità specifica durante la generazione della risposta. Può essere considerato un approccio fondamentale su cui si basano framework più strutturati ed è ampiamente utilizzato in molte tecniche di prompting discusse più avanti in questo articolo. Assegnandogli un ruolo come ad esempio “sviluppatore”, “insegnante”, “avvocato”, “scienziato”, il modello viene messo in grado di produrre output più strutturati, pertinenti e adattati a uno specifico contesto o dominio di competenza.

Gli LLM sono addestrati su grandi quantità di testo che includono modelli di comunicazione associati a diverse professioni e persone. Quando viene specificato un ruolo, il modello condiziona la propria risposta per riflettere tali schemi, producendo un tono, una terminologia e un livello di spiegazione più appropriati.

La struttura comune di role prompting segue la forma:

  • Sei un/una [RUOLO].
  • Il tuo compito è [TASK].
  • Spiega la risposta in [STILE/FORMATO]

Esempio

Partendo dal ruolo, indichiamo al modello la competenza specifica che il modello deve assumere: “Sei un esperto di cybersecurity”.

Il task, ossia il compito specifico che il modello deve svolgere, sarà in questo caso “Spiega un attacco Distributed Denial-of-Service (DDoS).

Infine arriva lo stile/formato della risposta, ossia i requisiti stilistici dell’output: “Utilizza un linguaggio comprensibile senza tecnicismi, perché il pubblico cui l’articolo va rivolto non è composto da esperti tecnici”.

Output di esempio

“Un attacco Distributed Denial-of-Service (DDoS) è un tipo di attacco informatico in cui molti computer sovraccaricano uno specifico sito web o un servizio online inviando contemporaneamente un numero enorme di richieste. Questo causa rallentamenti del sistema o addirittura il suo blocco.

L’idea chiave è il sovraccarico. Immagina un negozio in cui migliaia di persone cercano di entrare tutte nello stesso momento. L’ingresso si blocca e i clienti non riescono ad entrare o comunque ad essere serviti. Un attacco DDoS funziona in modo simile: il sistema è così occupato a gestire il traffico artificiale tanto da non riescire più a servire gli utenti legittimi.”

Casi d’uso

  • Adattare i contenuti al pubblico e al contesto: utilizzare ruoli (p.e:. “insegnante”, “esperto”, “consulente”…) per regolare tono, profondità e chiarezza.
  • Generare output specifici per dominio: produrre contenuti più pertinenti e strutturati, coerenti con competenze professionali.
  • Migliorare problem solving e decision-making: simulare prospettive “esperte” per analisi, raccomandazioni e debugging.
  • Migliorare comunicazione e creatività: modellare lo stile per scrittura, interazioni con clienti, storytelling e riscrittura dei contenuti

Note chiave

Quando si utilizza la struttura di prompt Role Prompting (Persona Prompting) è importante evitare ruoli vaghi (p.e., “esperto”), poiché possono portare a output generici. Ruoli più specifici (p.e., “analista di cybersecurity”, “insegnante universitario”) tendono a produrre risposte più precise e utili. Tuttavia, l’output deve essere sempre esaminato con attenzione, poiché il modello può talvolta enfatizzare eccessivamente la persona, ad esempio aggiungendo gergo non necessario o particolarità stilistiche. Quando ciò accade, il passo successivo consiste nel perfezionare il prompt introducendo vincoli più chiari.

 

2. RACE framework

Guardiamo adesso un framework che si basa su quattro elementi: Ruolo, Azione, Contesto e Aspettative.

Idea di base

Il framework RACE è una struttura di prompt engineering semplice e ampiamente utilizzata, progettata per aiutare gli utenti a comunicare in modo più chiaro con i modelli LLM. L’acronimo sta per Role, Action, Context ed Expectation e fornisce un approccio strutturato alla scrittura dei prompt, guidando gli LLM verso risposte più pertinenti e accurate per il contesto specifico.

Definendo esplicitamente questi quattro componenti, gli utenti possono ridurre l’ambiguità delle richieste e garantire quindi che il modello comprenda sia il compito sia il formato desiderato dell’output. Metodi di prompting strutturato come RACE sono sempre più raccomandati nelle guide di prompt engineering, poiché migliorano la chiarezza, la coerenza e l’utilità delle risposte generate dall’AI.

Questo framework presenta significative somiglianze con il Role Prompting (Persona Prompting) visto prima, ma introduce elementi aggiuntivi, come il contesto, e offre maggiore chiarezza riguardo alle aspettative.

I quattro componenti del framework RACE svolgono funzioni distinte:

  • Role specifica la prospettiva o l’expertise che l’AI deve assumere, ad esempio “insegnante”, “ricercatore” o “esperto di marketing”. Chi deve impersonare il modello LLM?
  • Action descrive il compito che l’AI deve svolgere, come “scrivere”, “analizzare” o “riassumere”. Quale compito specifico deve eseguire il modello?
  • Context fornisce informazioni di contesto, background che aiutano il modello ad adattare la risposta, come il pubblico di riferimento, l’argomento o lo scopo. Quali informazioni di contesto sono necessarie?
  • Expectation definisce il formato o il risultato desiderato dell’output, ad esempio un breve riassunto, punti elenco o un report strutturato. Come deve essere l’output?

Nel loro insieme, questi elementi garantiscono che l’LLM riceva istruzioni chiare sia sul compito sia su come l’output deve essere presentato.

Esempio

Ruolo: Sei uno chef italiano esperto e insegnante di cucina, specializzato nella tradizione culinaria romana.

Azione: Spiega come preparare un’autentica pasta alla carbonara a un gruppo di giovani apprendisti cuochi.

Contesto: il tuo pubblico è un gruppo di studenti di cucina alle prime armi che stanno imparando le ricette classiche italiane. Concentrati sul metodo romano autentico utilizzando ingredienti come pecorino romano e guanciale. Sottolinea errori comuni, come l’uso della panna e della pancetta. L’obiettivo è insegnare la tecnica e il rispetto per la ricetta e gli ingredienti tradizionali.

Aspettative: qui si definiscono anche stile, formato, lunghezza e qualità dell’output. Ad esempio, 200–300 parole, inizia con un’affermazione forte su cosa rende autentica una vera carbonara. Spiega chiaramente gli ingredienti chiave e la loro importanza. Descrivi il processo passo dopo passo. Menziona almeno due errori comuni. Concludi con un breve messaggio incoraggiante. Il tono deve essere appassionato, istruttivo e leggermente narrativo.

Casi d’uso

Nel complesso, il framework RACE è apprezzato per la sua semplicità e versatilità. Concentrandosi su quattro elementi fondamentali della comunicazione, chi parla, quale compito deve essere svolto, quali informazioni di contesto sono rilevanti e quale forma deve assumere l’output finale, può essere applicato a un’ampia gamma di attività, tra cui scrittura, analisi dei dati, formazione e comunicazione aziendale.

Con il prompt engineering che sta diventando una competenza sempre più importante per interagire con i modelli LLM, framework come RACE forniscono linee guida pratiche per creare prompt più precisi ed efficaci [Park, 2026].

Note chiave

L’efficacia di questo framework risiede nella corretta definizione dei suoi componenti fondamentali; è quindi essenziale definire chiaramente Role, Action, Context ed Expectation. Componenti mancanti o vaghi possono portare a output incompleti o generici, riducendo l’efficacia del framework.

Inoltre, sebbene il contesto sia un elemento chiave, fornire troppe informazioni può confondere il modello. È quindi importante includere solo informazioni rilevanti che aggiungano valore al compito specifico.

Infine, le componenti del framework devono essere coerenti tra loro. Disallineamenti possono ridurre sia l’efficacia del framework sia la qualità dell’output.

 

3. CRISPE framework

CRISPE è talvolta presentato con leggere variazioni nel nome, come CRISP o CRISPY, ma si tratta dello stesso framework. L’acronimo indica le componenti base della struttura: Capacity/Role (capacità/ruolo), Request — o Statement — (richiesta o istruzione), Insight (contesto), Style/Persona (stile/persona), ed Example (esempio).

Idea di base

CRISPE è un framework strutturato di prompt engineering progettato per migliorare la chiarezza e l’affidabilità delle interazioni con i modelli LLM, in particolare in contesti tecnici e di sviluppo. Le diverse componenti, con le cui iniziali è composto il nome, aiutano gli utenti a definire esplicitamente sia il compito da svolgere sia parametri importanti per guidare il modello a generare output più rispondenti alle proprie necessità.

Scomponendo i prompt in queste componenti, CRISPE permette di ridurre l’ambiguità e aiuta a produrre output più deterministici e consapevoli del contesto, un aspetto fondamentale quando si integrano gli LLM in sistemi software o flussi operativi.

Il framework è composto dai seguenti elementi chiave:

  • Capacity/Role: definisce il ruolo o la capacità secondo cui l’LLM deve operare. Per esempio insegnante, chef, formatore, e così via. Corrisponde al componente Role del framework RACE.
  • Insight: fornisce le informazioni di contesto necessarie, consentendo al modello di generare risposte più accurate e pertinenti. È analogo al Context in RACE.
  • Request (o statement): rappresenta il compito o l’istruzione principale fornita al modello e corrisponde all’Action in RACE.
  • Style/Persona (Personality): specifica il tono, lo stile o l’approccio comunicativo (es. formale, conversazionale). Contribuisce alla dimensione Expectation in RACE.
  • Example (o Experiment): incoraggia l’inclusione di esempi e/o di diverse varianti di output, permettendo agli utenti di valutare e perfezionare iterativamente i risultati.

Il framework CRISPE migliora l’utilizzo degli LLM aumentando efficienza, precisione e qualità della comunicazione. Strutturando efficacemente i prompt, consente di ottenere risultati pertinenti più rapidamente, riduce la necessità di iterazioni ripetute e supporta un migliore processo decisionale.

Esempio

Capacity/Role indica quale ruolo deve impersonare il LLM e quale competenza o prospettiva è richiesta. Nel nostro esempio, il prompt sarebbe: “Sei un professore universitario di economia con esperienza specializzato in macroeconomia”.

La Request/Statement indica cosa deve fare il LLM, qual è il compito specifico. Quindi nel prompt verrà aggiunto “Spiega il concetto di inflazione”.

Insight rappresenta il contesto, ossia ciò che il LLM deve sapere, quali informazioni o vincoli sono rilevanti. Nel prompt potrebbe essere “Il pubblico a cui ci si rivolge è composto da studenti universitari del primo anno, con poca o nessuna conoscenza di economia. La spiegazione deve quindi includere la definizione di inflazione, i motivi per cui si verifica, i suoi impatti sull’economia e la vita reale delle persone”.

Personality definisce il modo in cui il LLM deve comunicare, il tono e lo stile da utilizzare. Il prompt verrà ulteriormente ampliato scrivendo “Utilizza uno stile didattico chiaro, coinvolgente e accessibile”.

Experiment, infine, specifica quali varianti o alternative devono essere esplorate. Il prompt sarà quindi completato così: “Fornisci due spiegazioni complementari: una con un esempio della vita reale, tipo l’aumento dei prezzi dei prodotti di consumo, e un’altra con una semplice illustrazione numerica”.

Casi d’uso

Il framework CRISPE è altamente flessibile e ciò lo rende utile a un’ampia gamma di attività. Elementi come la personalizzazione del tono e la generazione di più output favoriscono una comunicazione più chiara e un problem solving più creativo. In particolare, è adatto ai seguenti casi d’uso:

  • Attività tecniche ed educative: generare spiegazioni chiare e strutturate per pubblici ben definiti.
  • Sviluppo software e problem solving: supportare coding, debugging e analisi complesse con contesto preciso.
  • Creazione di contenuti con stile controllato: garantire coerenza di tono e struttura nella comunicazione.
  • Esplorazione iterativa: produrre più varianti per confrontare, affinare e migliorare i risultati.
  • Supporto decisionale e di business: creare insight strutturati, report e raccomandazioni per stakeholder.

Note chiave

Come per altri framework, è importante definire il ruolo con un livello di granularità corretto. Ruoli troppo generici finiscono per far produrre output generici, mentre ruoli troppo specifici possono limitare inutilmente la risposta.

Il prompt deve essere rilevante, sufficiente e conciso. Il contesto deve essere informativo ma focalizzato: informazioni scarse riducono l’accuratezza, ma troppe indicazioni possono confondere il modello.

Inoltre, stile e tono devono essere espliciti e chiaramente definiti. Specificare lo stile comunicativo migliora la coerenza, soprattutto in contesti professionali o rivolti al cliente.

Gli esempi devono essere utilizzati in modo strategico. Sebbene possano fornire un supporto determinante, un numero eccessivo di varianti può ridurre il focus e finire per introdurre rumore.

Infine, come in tutti gli approcci di prompting, è fondamentale mantenere coerenza tra i componenti. Disallineamenti — ad esempio, un ruolo tecnico associato ad aspettative troppo semplici — possono portare a risultati subottimali.

 

Pratiche di buon senso per output più affidabili

Vediamo ora una serie di indicazioni pratiche e di buon senso per ridurre le “allucinazioni” e ottenere output più affidabili dai modelli LLM.

  • Richiedere le fonti: chiedere riferimenti o prove a supporto delle affermazioni fornite dal modello. Un approccio utile consiste nell’includere esplicitamente nel prompt una frase come: “Cita almeno tre fonti”. Questo semplice accorgimento può ridurre significativamente la probabilità che il modello inventi fatti o citazioni. Come discusso nell’articolo precedente, i modelli possono comunque generare fonti inventate; tuttavia, è meno probabile che ne inventino più di una e che queste fonti fittizie siano coerenti con le altre.
  • Verificare i fatti: controllare sempre le informazioni importanti utilizzando fonti autorevoli e affidabili prima di accettarle. Il confronto con siti ufficiali, pubblicazioni accademiche o testate giornalistiche riconosciute è essenziale, soprattutto per decisioni critiche. Si tratta di una competenza di base, in teoria appresa fin dai primi anni di scuola, che rimane assolutamente valida anche nell’utilizzo degli LLM.
  • Essere specifici nei prompt: prompt chiari, dettagliati ma concisi, e con un adeguato contesto, riducono la probabilità che il modello “indovini” o generi informazioni errate. Questo aspetto sarà approfondito nei paragrafi successivi. Ad esempio: “Una delle partite di calcio più famose è Italia vs Germania, giocata nel 1970. È stata una partita epica. Puoi fornire un breve riassunto e citare tre fonti?”. Fornire contesto e istruzioni precise aiuta il modello a generare risposte più accurate e pertinenti.
  • Confrontare le risposte: confrontare gli output del modello con altre fonti o strumenti affidabili per individuare eventuali incoerenze. Ad esempio, se il modello afferma che il Brasile abbia vinto la Coppa del Mondo FIFA 2006, una verifica sul sito ufficiale della FIFA o su fonti attendibili confermerà che il vincitore è stato l’Italia.
  • Essere consapevoli dei limiti: ricordare che gli LLM possono generare informazioni plausibili ma errate o non aggiornate. Questi modelli non sono infallibili; comprenderne i limiti aiuta a mantenere aspettative realistiche.
  • Applicare il pensiero critico: quando gli use case lo consentono, può essere un buon accorgimento considerare l’output del modello come una bozza o un suggerimento, non come una verità assoluta. È importante mettere in discussione e verificare le affermazioni rilevanti o inattese.
  • Consultare più modelli o benchmark: per temi ad alto impatto, può essere utile eseguire lo stesso prompt su più modelli — ad esempio ChatGPT, Gemini, DeepSeek — e confrontarne i risultati. Eventuali differenze possono evidenziare aspetti che richiedono ulteriori verifiche.

Applicando in modo sistematico queste strategie, gli utenti possono ridurre il rischio di allucinazioni e utilizzare in modo più affidabile gli output dei modelli linguistici.

 

Comportamenti da evitare nel Prompt Engineering

Indipendentemente dal framework utilizzato, esistono diversi errori comuni che gli utenti possono commettere quando interagiscono con gli LLM. Tra i più frequenti:

  • Essere troppo vaghi o generici. Porre domande ampie come “Scrivi circa l’economia” porta spesso a risposte generiche. Prompt chiari e specifici consentono agli LLM di produrre risultati più in linea con le aspettative.
  • Non definire un ruolo per l’LLM. Senza specificare un ruolo (p.e. insegnante universitaria, analista di processi, cuoco esperto, etc.), il modello può generare risposte poco focalizzate. L’assegnazione di un ruolo migliora rilevanza e tono.
  • Mancanza di contesto. Non fornire informazioni di base essenziali, come pubblico, obiettivo o vincoli, riduce accuratezza e utilità [OpenAI Prompting Guide, 2024].
  • Istruzioni poco chiare. Richieste ambigue (p.e. “Scrivi circa l’economia”) rendono difficile ottenere output precisi. Questi prompt sono spesso caratterizzati da verbi generici come “parla di” (talk about), “dimmi di” (tell me about), “fornisci informazioni su” (give information on). Alternative più efficaci includono: “identifica” (identify), “elenca 5 fattori chiave” (list 5 key factors), “analizza” (break down), “valuta secondo questi criteri” (evaluate based on given criteria), “genera due esempi” (generate two examples), “classifica” (rank).
  • Non specificare il formato desiderato. Se non viene indicato un formato (p.e., punti elenco, paragrafi, sintesi), l’output potrebbe non soddisfare le esigenze.
  • Ignorare tono e stile. Lo stesso contenuto può essere espresso in modo formale, informale o tecnico. Non specificare questi aspetti può portare a una comunicazione non adeguata.
  • Sovraccaricare il prompt con troppe informazioni. Prompt lunghi o poco focalizzati possono confondere il modello e ridurre la qualità dell’output. È importante includere solo le informazioni necessarie, evitando ridondanze inutili.
  • Non iterare o affinare i prompt.  Ottenere risultati allineati alle aspettative richiede generalmente un processo iterativo. Spesso gli utenti si fermano alla prima risposta invece di migliorare il prompt.
  • Non richiedere esempi. Gli esempi migliorano chiarezza e utilità, soprattutto in contesti didattici o tecnici.
  • Non richiedere fonti. Richiedere fonti affidabili aumenta la fiducia nell’output e riduce il rischio di allucinazioni.
  • Non utilizzare framework strutturati (p.e. RACE, CRISPE). Prompt non strutturati portano spesso a risultati incoerenti, mentre i framework migliorano chiarezza, controllo e qualità complessiva dell’output.

 

Il linguaggio naturale è il futuro della programmazione?

Da una prospettiva storica, la programmazione si è evoluta progressivamente verso livelli di astrazione sempre più elevati: dai linguaggi a basso livello, come l’assembly, a paradigmi di più alto livello come la programmazione strutturata (p.e. Pascal, C) e la programmazione orientata agli oggetti (p.e. Smalltalk, C++, Java).

Oggi, i modelli LLM rappresentano un ulteriore passo in questa evoluzione, in cui il linguaggio naturale, se espresso attraverso prompt ben strutturati, può fungere da vera e propria interfaccia di programmazione.

Invece di scrivere codice, gli utenti specificano intenti, vincoli e contesto in linguaggio naturale, e il modello poi si occupa di generare codici eseguibili. Questa idea sta attirando sempre più attenzione sia in ambito accademico sia industriale, in particolare negli studi sulla “programmazione in linguaggio naturale” e sul coding assistito dall’AI (p.e. OpenAI Codex) [Chen et al., 2021], [Karpathy, 2023].

Sebbene i linguaggi di programmazione tradizionali continuino a svolgere un ruolo fondamentale, il prompt engineering può essere considerato un paradigma complementare. Attualmente, è sempre più comune che gli sviluppatori, anche esperti, utilizzino modelli LLM per generare codice, producendo tipicamente una prima versione che poi si occupano di raffinare e migliorare.

Guardando al futuro, è probabile che ben presto emerga un nuovo livello di astrazione nell’evoluzione della programmazione, in cui i compilatori opereranno direttamente su linguaggio naturale strutturato.

 

Conclusioni

Lo sfruttamento al massimo del potenziale dei modelli LLM non è solo questione delle loro capacità, dei dati di addestramento, e così via, ma molto dipende anche da quanto efficacemente gli utenti riescono a interagire con essi. Prompt superficiali o progettati in modo inadeguato possono portare a inefficienze, output di qualità inferiore e persino a rischi finanziari o decisionali. Prompt ben strutturati, invece, migliorano significativamente accuratezza, pertinenza e produttività.

Il prompt engineering si pone quindi come una competenza chiave nell’uso moderno dell’AI. Tecniche fondamentali, come cui zero-shot, few-shot e chain-of-thought prompting, viste nell’articolo precedente, e framework strutturati come RACE e CRISPE, visti in questo articolo, migliorano chiarezza, controllo e coerenza. Nel loro insieme, questi approcci trasformano istruzioni vaghe in output precisi e affidabili, consentendo una collaborazione più efficace tra uomo e AI. In definitiva, la progettazione dei prompt è una competenza fondamentale per massimizzare il valore che si riesce a ottenere da modelli LLM.

Detto ciò, l’idea che il prompt engineering possa evolversi in una professione autonoma potrebbe essere in larga parte sovrastimata. Man mano che gli LLM diventano sempre più capaci di interpretare l’intento, perfezionare gli input e persino ottimizzare i prompt in modo autonomo, la necessità di un intervento umano specializzato nelle attività di prompting di base è destinata a ridursi. Sebbene, attualmente, la competenza nella progettazione dei prompt rimanga preziosa, soprattutto in contesti complessi, critici o altamente specialistici, questa sta evolvendo in una competenza complementare piuttosto che in un ruolo distinto. In questo senso, il futuro del prompt engineering potrebbe risiedere meno nell’ottimizzazione manuale e più nella capacità di guidare, supervisionare e collaborare con sistemi di AI sempre più avanzati.

Infine, è sempre più comune che gli sviluppatori utilizzino gli LLM per generare codice, producendo tipicamente una prima versione che viene poi raffinata e migliorata. Guardando al futuro, è probabile che emerga un nuovo livello di astrazione nell’evoluzione della programmazione, in cui i compilatori opereranno direttamente su linguaggio naturale strutturato.

 

 

Riferimenti

[Google, 2026]  Google, Prompt engineering: overview and guide, 14 January 2026
https://cloud.google.com/discover/what-is-prompt-engineering

 

[Becker et al., 2025]  Joel Becker, Nate Rush, Beth Barnes, David Rein, Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity, 25 July 2025
https://arxiv.org/pdf/2507.09089

 

[Gutheil et al., 2026]  Niklas Gutheil, Valentin Mayer, Leopold Müller, Jörg Rommelt, Niklas Kühl, PromptPilot: Improving Human-AI Collaboration Through LLM-Enhanced Prompt Engineering, 1 Oct 2025 06
https://arxiv.org/pdf/2510.00555

 

[Laurent, 2025]  Adrien Laurent, AI Hallucinations in Business: Causes and Prevention, 2025
https://intuitionlabs.ai/articles/ai-hallucinations-business-causes-prevention?utm_source=chatgpt.com

 

[Hassanein et al., 2025]  Fatma EA Hassanein, Yousra Ahmed, Shaymaa Maher, Ahmed El Barbary, Asmaa Abou-Bakr, Prompt-dependent performance of multimodal AI model in oral diagnosis: a comprehensive analysis of accuracy, narrative quality, calibration, and latency versus human expert, 30 October 2025
https://pmc.ncbi.nlm.nih.gov/articles/PMC12575769/?utm_source=chatgpt.com

 

[Horton et al., 2025]  Richard Horton  Jan Michalski  Stacey Winters  Douglas Gunn  Jennifer Holland , AI ROI: The paradox of rising investment and elusive returns, 22 Oct 2025
https://www.deloitte.com/uk/en/issues/generative-ai/ai-roi-the-paradox-of-rising-investment-and-elusive-returns.html?utm_source=chatgpt.com

 

[Groome, 2025]  Imogen Groome, What is Zero-Shot Prompting?, 7 Aug  2025
https://www.ai21.com/glossary/foundational-llm/zero-shot-prompting/

 

[Brown et al. 2020]  Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, Dario Amodei, Language Models are Few-Shot Learners, last revised 22 Jul 2020
https://arxiv.org/abs/2005.14165

 

[Kaplan et al., 2020]  Jared Kaplan, Sam McCandlish, Tom Henighan, Tom B. Brown, Benjamin Chess, Rewon Child, Scott Gray, Alec Radford, Jeffrey Wu, Dario Amodei, Scaling Laws for Neural Language Models, 23 Jan 2020
https://arxiv.org/abs/2001.08361

 

[Touvron et al, 2023]  Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothee Lacroix, Baptiste Rozière, Naman Goyal, Eric Hambro, Faisal Azhar, Aurelien Rodriguez, Armand Joulin, Edouard Grave, Guillaume Lample, LLaMA: Open and Efficient Foundation Language Models, 27 Feb 2023
https://arxiv.org/pdf/2302.13971

 

[Chen et al., 2025]  Banghao Chen, Zhaofeng Zhang, Nicolas Langrené, Shengxin Zhu, Unleashing the potential of prompt engineering for large language models, Volume 6, Issue 6, 13 June 2025, 101260
https://www.sciencedirect.com/science/article/pii/S2666389925001084?utm_source=chatgpt.com

 

[Wei et al., 2023]  Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed Chi, Quoc Le, Denny Zhou, Chain-of-Thought Prompting Elicits Reasoning in Large Language Models, 10 Jan 2023
https://arxiv.org/abs/2201.11903

 

[Yao et al., 2023]  Shunyu Yao, Jeffrey Zhao, Dian Yu, Nan Du, Izhak Shafran, Karthik Narasimhan, Yuan Cao, ReAct: Synergizing Reasoning and Acting in Language Models, 10 Mar 2023
https://arxiv.org/abs/2210.03629

 

[Park, 2026]  David Park, The RACE Framework: Master Prompt Engineering in 15 Minutes, January 2026
https://automatemyjob.co.uk/blog/race-framework-prompt-engineering?utm_source=chatgpt.com

 

[Sheldon et al., 2024]  Robert Sheldon, Kinza Yasar, What is an AI prompt?, November 2024
https://www.techtarget.com/searchenterpriseai/definition/AI-prompt?utm_source=chatgpt.com

 

[Wang et al., 2022]  Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc Le, Ed Chi, Sharan Narang, Aakanksha Chowdhery, Denny Zhou , Self-Consistency Improves Chain-of-Thought Reasoning in Language Models, March 2023
https://arxiv.org/abs/2203.11171

 

 

 

Facebook
Twitter
LinkedIn
Luca Vetti Tagliati
Luca Vetti Tagliati

Senior esperto in tecnologia e trasformazione digitale, con una solida esperienza in Enterprise Architecture, ruoli di CTO, Product Ownership e posizioni di technical management, gestendo elevati budget globali.

Riconosciuto per una leadership innovativa, orientata al cliente e ai risultati, con la capacità di operare efficacemente tra strategia, esecuzione e coinvolgimento degli stakeholder per garantire il successo dei programmi.

Unisce una profonda competenza tecnica all'esperienza commerciale e gestionale, riuscendo anche a risanare programmi complessi, spesso richiesti dai regolatori, e a fornire soluzioni pragmatiche e ad alto impatto in tempi stretti.

Porta visioni strategiche supportate da un approccio concreto, allineando costantemente tecnologia, dati e innovazione agli obiettivi aziendali e normativi.

Ha conseguito un dottorato di ricerca, presso la University Of London, lavorando a tempo pieno nell’industria. Ciò gli permetti di offrire una combinazione di rigore accademico e concretezza operativa.

Recentemente è tornato a dedicarsi all’Intelligenza Artificiale e all’analisi avanzata dei dati, avendo ricoperto il ruolo di Head of Data Analytics & Innovation (2022) per due anni, pubblicando ricerche peer-reviewed e contribuendo attivamente a think tank e forum di settore sull’AI.

Tra le principali attività portate a compimento negli anni:

Progettazione dell’architettura del sistema su larga scala Impairment(s), vincitore del Global Enterprise Architecture Excellence Awards 2018 (categoria Banking)

Ideazione e implementazione del "DANTE Data Fabric", vincitore dell’iCMG Enterprise, Business & IT Architecture Excellence Awards 2015 (categoria SOA Services for Enterprise)

Progettazione della piattaforma di calcolo REF, finalista ai Banking Technology Awards 2014 (categoria Best Use of IT for risk/regulatory change)

Attribuzione del premio “Extraordinary Commitment” nel 2014

 

Pubblicazioni:

Libro UML and Software Engineering - From Theory to Practice (2004)

Libro Java Best Practices (2008)

Libro Towards Java SE 8: Notes for Developers in Java 7 (2013)

Numerosi articoli su riviste IT e online, inclusi contributi sull’Intelligenza Artificiale.

Pagina LinkedIn: https://ch.linkedin.com/in/luca-vetti-tagliati-phd-2b55618

 

Immagine di Luca Vetti Tagliati

Luca Vetti Tagliati

Senior esperto in tecnologia e trasformazione digitale, con una solida esperienza in Enterprise Architecture, ruoli di CTO, Product Ownership e posizioni di technical management, gestendo elevati budget globali. Riconosciuto per una leadership innovativa, orientata al cliente e ai risultati, con la capacità di operare efficacemente tra strategia, esecuzione e coinvolgimento degli stakeholder per garantire il successo dei programmi. Unisce una profonda competenza tecnica all'esperienza commerciale e gestionale, riuscendo anche a risanare programmi complessi, spesso richiesti dai regolatori, e a fornire soluzioni pragmatiche e ad alto impatto in tempi stretti. Porta visioni strategiche supportate da un approccio concreto, allineando costantemente tecnologia, dati e innovazione agli obiettivi aziendali e normativi. Ha conseguito un dottorato di ricerca, presso la University Of London, lavorando a tempo pieno nell’industria. Ciò gli permetti di offrire una combinazione di rigore accademico e concretezza operativa. Recentemente è tornato a dedicarsi all’Intelligenza Artificiale e all’analisi avanzata dei dati, avendo ricoperto il ruolo di Head of Data Analytics & Innovation (2022) per due anni, pubblicando ricerche peer-reviewed e contribuendo attivamente a think tank e forum di settore sull’AI. Tra le principali attività portate a compimento negli anni: Progettazione dell’architettura del sistema su larga scala Impairment(s), vincitore del Global Enterprise Architecture Excellence Awards 2018 (categoria Banking) Ideazione e implementazione del "DANTE Data Fabric", vincitore dell’iCMG Enterprise, Business & IT Architecture Excellence Awards 2015 (categoria SOA Services for Enterprise) Progettazione della piattaforma di calcolo REF, finalista ai Banking Technology Awards 2014 (categoria Best Use of IT for risk/regulatory change) Attribuzione del premio “Extraordinary Commitment” nel 2014   Pubblicazioni: Libro UML and Software Engineering - From Theory to Practice (2004) Libro Java Best Practices (2008) Libro Towards Java SE 8: Notes for Developers in Java 7 (2013) Numerosi articoli su riviste IT e online, inclusi contributi sull’Intelligenza Artificiale. Pagina LinkedIn: https://ch.linkedin.com/in/luca-vetti-tagliati-phd-2b55618  
Tutti gli articoli
Nello stesso numero
Loading...

Tutto quello che sapevi sullo sviluppo prodotto è cambiato

Le “ondate” dello sviluppo prodotto con AI

Dopo la MokaByte Conference 26

Riflessioni sull’impatto dell’AI

Dieci regole per usare l’AI in azienda

Come cambiano le policy

Nella stessa serie
Loading...

LLMs models: how do they work?

Part 8: A first look at Prompt Engineering

Modelli LLM: Come funzionano?

VIII parte: Un primo sguardo sul Prompt Engineering

LLMs models: how do they work?

Part 7: Causes of hallucinations and methods to limit them

Modelli LLM: Come funzionano?

VII parte: Cause delle allucinazioni e modalità per limitarle

LLMs models: how do they work?

Part 6: AI hallucinations defined

Modelli LLM: Come funzionano?

VI parte: Definizione e tipologia delle allucinazioni

LLMs models: how do they work?

Part 5: Transformer Architecture. Working principles and adaptability

Modelli LLM: Come funzionano?

V parte: Architettura Transformer. Funzionamento e adattamenti

Modelli LLM: Come funzionano?

IV parte: Architettura Transformer. I requisiti

LLMs models: how do they work?

Part 4: Transformer Architecture. Requirements

LLMs models: how do they work?

Part 3: Embeddings

Modelli LLM: Come funzionano?

III parte: Embeddings

LLMs models: how do they work?

Part 2: BNN vs ANN, an OO View

Modelli LLM: Come funzionano?

II parte: BNN e ANN, una visione OO

Modelli LLM: Come funzionano?

I parte: ANN (Artificial Neural Network), reti neurali artificiali

LLMs models: how do they work?

Part 1: Artificial Neural Networks

Mokabyte

MokaByte è una rivista online nata nel 1996, dedicata alla comunità degli sviluppatori java.
La rivista tratta di vari argomenti, tra cui architetture enterprise e integrazione, metodologie di sviluppo lean/agile e aspetti sociali e culturali del web.

Imola Informatica

MokaByte è un marchio registrato da:
Imola Informatica S.P.A.
Via Selice 66/a 40026 Imola (BO)
C.F. e Iscriz. Registro imprese BO 03351570373
P.I. 00614381200
Cap. Soc. euro 100.000,00 i.v.

Privacy | Cookie Policy

Contatti

Contattaci tramite la nostra pagina contatti, oppure scrivendo a info@mokabyte.it

Seguici sui social

Facebook Linkedin Rss
Imola Informatica
Mokabyte