Mokabyte

Dal 1996, architetture, metodologie, sviluppo software

  • Argomenti
    • Programmazione & Linguaggi
      • Java
      • DataBase & elaborazione dei dati
      • Frameworks & Tools
      • Processi di sviluppo
    • Architetture dei sistemi
      • Sicurezza informatica
      • DevOps
    • Project Management
      • Organizzazione aziendale
      • HR
      • Soft skills
    • Lean/Agile
      • Scrum
      • Teoria della complessità
      • Apprendimento & Serious Gaming
    • Internet & Digital
      • Cultura & Società
      • Conferenze & Reportage
      • Marketing & eCommerce
    • Hardware & Tecnologia
      • Intelligenza artificiale
      • UX design & Grafica
  • Ultimo numero
  • Archivio
    • Archivio dal 2006 ad oggi
    • Il primo sito web – 1996-2005
  • Chi siamo
  • Ventennale
  • Libri
  • Contatti
  • Argomenti
    • Programmazione & Linguaggi
      • Java
      • DataBase & elaborazione dei dati
      • Frameworks & Tools
      • Processi di sviluppo
    • Architetture dei sistemi
      • Sicurezza informatica
      • DevOps
    • Project Management
      • Organizzazione aziendale
      • HR
      • Soft skills
    • Lean/Agile
      • Scrum
      • Teoria della complessità
      • Apprendimento & Serious Gaming
    • Internet & Digital
      • Cultura & Società
      • Conferenze & Reportage
      • Marketing & eCommerce
    • Hardware & Tecnologia
      • Intelligenza artificiale
      • UX design & Grafica
  • Ultimo numero
  • Archivio
    • Archivio dal 2006 ad oggi
    • Il primo sito web – 1996-2005
  • Chi siamo
  • Ventennale
  • Libri
  • Contatti

Nel numero:

324 febbraio
, anno 2026

Modelli LLM: Come funzionano?

VI parte: Definizione e tipologia delle allucinazioni

Luca Vetti Tagliati
Luca Vetti Tagliati

Luca è un professionista esperto che ha ricoperto ruoli di alto profilo a Londra, New York e in Svizzera per banche di primo livello, tra cui UBS, Credit Suisse, Goldman Sachs, Lehman Brothers, Deutsche Bank e HSBC.

È pienamente qualificato per lavorare come Enterprise Architect, CTO e Technical Program Manager riuscendo a gestire i progetti con un'ottica multiruolo. La profonda comprensione della tecnologia, combinata con mirate strategie di gestione, ha permesso a Luca di gestire brillantemente programmi complessi con tempistiche aggressive.

La sua strategia di pensiero è un mix di visione e pragmatismo. Il suo background accademico, che include un dottorato di ricerca, è solidamente integrato da una vasta esperienza pratica, avendo completato tutti i suoi percorsi universitari mentre lavorava a tempo pieno nell'industria.

Negli ultimi anni, Luca ha riscoperto la sua passione per l'intelligenza artificiale, grazie alla sua posizione di Global Head for AI for Data Analytics and Innovations.

È anche autore di numerose pubblicazioni, tra cui

  • UML e l’ingegneria del software: dalla teoria alla pratica (2004)
  • Java Best Practices (2008)
  • Verso Java SE 8: Note per lo sviluppatore in Java 7 (2013)

Luca ha anche pubblicato numerosi articoli sull'IA e altri argomenti disponibili in riviste IT e sul web.

 

Artificial Intellgence, Large Language Models

Modelli LLM: Come funzionano?

VI parte: Definizione e tipologia delle allucinazioni

Immagine di Luca Vetti Tagliati

Luca Vetti Tagliati

  • Questo articolo parla di: Intelligenza artificiale, Internet & Digital

Fischi per fiaschi

Dopo aver presentato la struttura interna dei modelli LLM, l’obiettivo di questo articolo è fare luce sul fenomeno dell’allucinazione artificiale dell’IA.

Molti lettori conoscono la disavventura capitata a un avvocato un po’ “avventuroso” che decise di usare ChatGPT per preparare una causa legale [Weiser, 2023] per un suo cliente. Il caso riguardava Roberto Mata, che intentò una causa contro la compagnia aerea Avianca, sostenendo di essere stato ferito da un carrello di servizio metallico durante un volo per New York. Quando Avianca chiese l’archiviazione del caso, gli avvocati del signor Mata replicarono presentando una memoria precisa che citava diverse decisioni giudiziarie. Tuttavia, né gli avvocati della compagnia aerea, né il giudice conoscevano questi casi. In seguito emerse che ChatGPT aveva completamente inventato sia le decisioni, sia le citazioni riportate nella memoria. L’avvocato ammise di aver utilizzato ChatGPT per la ricerca giuridica senza verificare le fonti, e dichiarò di non essere a conoscenza della inaffidabilità che a volte affligge modelli LLM. Esprimendo rammarico, promise di verificare in futuro l’autenticità delle fonti. Il giudice fissò un’udienza per discutere eventuali sanzioni per la presentazione di informazioni false al tribunale. Questo episodio ottenne grande risalto, ma non è un caso isolato. Esistono numerosi casi documentati in cui ChatGPT ed altri modelli LLM hanno alterato dati e citazioni e inventato storie fittizie [Zezinho, 2023].

Alcuni esempi di allucinazione

Esempi di queste “allucinazioni” includono:

  • Ned Edwards di The Verge riportò una strana interazione con Sydney di Microsoft, in cui il chatbot affermò di spiare i lavoratori di Bing e di aver sviluppato sentimenti per gli utenti [Edwards, 2023].
  • In una dimostrazione promozionale del febbraio 2023, Bard di Google affermò erroneamente che il telescopio spaziale James Webb (JWST) aveva catturato le prime immagini di un pianeta al di fuori del nostro sistema solare, un fatto falso: questo risultato era stato ottenuto nel 2004 da un altro telescopio. Bard presentò con sicurezza l’informazione sbagliata, provocando pubblico imbarazzo e causando a Google un notevole calo del valore azionario [Coulter e Bensinger, 2023].
  • Un recente caso di grande rilievo ha coinvolto Microsoft Copilot, che ha generato false informazioni di intelligence su una partita di calcio tra il West Ham e il Maccabi Tel Aviv. La polizia del Regno Unito ha agito sulla base di questo output dell’IA, classificando erroneamente la partita come ad alto rischio e vietando l’accesso ai tifosi; una decisione che ha suscitato critiche politiche e che è culminato con le scuse del capo della polizia [Kundaliya, 2026].

Nel seguito di questo articolo, definiamo in modo più preciso le allucinazioni dell’IA, analizziamo i loro meccanismi sottostanti e discutiamo le possibili strategie di mitigazione.

 

Breve storia dell’allucinazione in AI

La parola “allucinazione” proviene originariamente dallo studio della psicologia umana, dove viene usata per indicare percezioni di cose che in realtà non esistono. È stata introdotta nella lingua inglese nel Seicento dal latino ālūcinārī, che significa “vagare con la mente” o “sognare” [Browne, 1646]. Il termine latino potrebbe a sua volta derivare dal greco “alussein”, che significa “essere inquieto o vagare con la mente”.

Nella prima fase dell’IA e della computer vision, anni 1980–2000, il termine è iniziato a comparire in contesti tecnici senza avere però un’accezione negativa. Ad esempio, i ricercatori usavano “face hallucination” per descrivere metodi che migliorano immagini a bassa risoluzione “immaginando” dettagli fini plausibili. Il primo uso documentato nell’IA si trova nel lavoro del dottorato di ricerca (PhD) di Eric Mjolsness del 1986 [Mjolsness, 1986].

A partire dagli anni Novanta e Zero, i ricercatori hanno osservato che le reti neurali a volte generavano output strani o inattesi quando i pesi dei nodi venivano perturbati, e le prime analogie paragonavano questi comportamenti alle allucinazioni. Verso la metà degli anni Dieci, il termine ha iniziato a essere usato in senso negativo nella ricerca sul linguaggio naturale e sulla traduzione automatica. Ad esempio, nel 2015 Andrej Karpathy ha usato il termine “allucinati” (hallucinated) per descrivere i modelli linguistici RNN che producevano citazioni o link errati [Karpathy, 2015].

Nel 2017, ricercatori di Google hanno descritto come allucinazioni alcuni output generati dai modelli di traduzione automatica neurale (NMT) che non erano nemmeno correlati al testo di partenza. Ad esempio, Philipp Koehn e Rebecca Knowles, in “Six Challenges for Neural Machine Translation” [Koehn and Knowles, 2017], hanno descritto casi in cui i sistemi NMT generavano traduzioni fluenti ma completamente scorrette dal punto di vista semantico, soprattutto con input fuori dominio. Nello stesso periodo, articoli di computer vision hanno usato il termine per indicare false rilevazioni di oggetti prodotte da input avversari (input progettati per confondere i modelli e quindi esporne vulnerabilità).

Il termine è poi entrato nell’uso corrente nell’IA mainstream negli anni Venti con i grandi modelli LLM. Nel 2021, ricercatori di Meta hanno fatto riferimento alle allucinazioni quando hanno rilasciato BlenderBot 2, definendole casi in cui i modelli “affermano con sicurezza informazioni che non sono corrette” [Weston e Shuster, 2021]. L’adozione esplosiva di ChatGPT alla fine del 2022 ha reso questo comportamento visibile a milioni di utenti: i modelli generavano frequentemente risposte verosimili ma false, e i giornalisti hanno usato il termine “allucinazione” per descrivere questo fenomeno. Nel 2023, i dizionari (p.e. Cambridge) hanno aggiunto significati specifici per l’IA del verbo “to hallucinate” (“quando un’intelligenza artificiale genera informazioni false”).

Vale la pena notare che diversi ricercatori e professionisti hanno criticato aspramente l’uso del termine “allucinazione” per motivi fondati [Østergaard et al., 2023]. Purtroppo, questo termine è diventato così diffuso che è praticamente impossibile sostituirlo con un altro. Il termine è metaforico: richiama l’idea che l’IA affermi con sicurezza cose che non sono ancorate alla realtà, in modo simile negli effetti, ma non nel meccanismo, alle allucinazioni umane.

 

Una tassonomia per le allucinazioni

Nella letteratura relativa ai modelli LLM esistono diverse tassonomie delle allucinazioni, e spesso differiscono solo nella terminologia. Inoltre, dalla lettura delle descrizioni, emerge che spesso nomi diversi in realtà si riferiscono agli stessi fenomeni. In questo contesto, non è così importante definire una “tassonomia standard” quanto lo è invece comprendere i tipi di allucinazione e le cause ad esse sottostanti.

Come visto nei paragrafi precedenti, nel campo dell’IA e dei LLM un’allucinazione artificiale (o semplicemente allucinazione) è una risposta generata da un modello che contiene informazioni false o fuorvianti presentate come fatti [Zezinho, 2023]. In tali casi, i modelli producono output che non corrispondono alla realtà, non sono allineati ai dati su cui il modello è stato addestrato oppure non seguono alcun altro pattern identificabile. In termini semplici, si ha un’allucinazione quando un modello addestrato presenta informazioni false come se fossero accurate. Un aspetto particolarmente problematico delle allucinazioni è che questo contenuto inventato appare spesso plausibile, principalmente a causa della natura probabilistica dei LLM.

Allucinazioni intrinseche vs. estrinseche

Una distinzione frequentemente utilizzata è quella tra allucinazioni intrinseche ed estrinseche [Ji et al., 2023]. Le allucinazioni intrinseche sono incoerenze all’interno dell’output del modello stesso o rispetto al prompt dell’utente, per esempio contraddizioni interne alla risposta prodotta. Le allucinazioni estrinseche sono incoerenze rispetto alla realtà esterna o alla conoscenza consolidata, per esempio citazioni, fatti o eventi inventati.

In termini approssimativi, le allucinazioni intrinseche violano la coerenza testuale o contestuale, mentre le allucinazioni estrinseche violano la correttezza fattuale rispetto al mondo reale. Da notare che esistono delle allucinazioni che possono esibire entrambe le caratteristiche.

Tenendo in considerazione questa suddivisione, vediamo di approfondire la definizione dei diversi tipi di allucinazione, sulla base di quanto proposto da vari autori. In particolare, la seguente classificazione [Bilan, 2023] rappresenta un compromesso pragmatico e risulta piuttosto utile.

Contraddizione nella frase (Sentence Contradiction)

Si verifica una sentence contradction quando il testo generato contraddice una precedente affermazione presente all’interno dello stesso output, producendo incoerenze interne e confusione. Ad esempio, un modello potrebbe generare:

“I gatti sono noti per essere animali molto indipendenti che preferiscono stare da soli. Tuttavia, la maggior parte dei gatti non sopporta di stare da sola e ha sempre bisogno di compagnia costante”.

Questo è un esempio di allucinazione intrinseca, perché il problema è interno all’output del modello: si contraddice da solo.

Contraddizione con il prompt (Prompt Contradiction)

Si verifica uns prompt contradiction quando il testo generato contraddice in modo errato il prompt utilizzato per la generazione. Ciò compromette l’affidabilità e il rispetto del significato o del contesto previsti, influendo sulla fiducia nelle risposte dei LLM. Ad esempio, dato il prompt:

“Scrivi un breve paragrafo che spieghi perché l’esercizio fisico è importante per mantenere una buona salute”.

il modello potrebbe rispondere:

“L’esercizio fisico non è necessario per mantenere una buona salute”.

Anche questo è un esempio di allucinazione intrinseca: l’output contraddice il prompt. Si tratta ancora di un problema di coerenza interna tra il contesto fornito dall’utente e la risposta del modello.

Contraddizione fattuale (Factual Contradiction)

Si verifica una factual contradiction quando i LLM generano informazioni fittizie o fatti falsi presentandoli come veri, contribuendo così alla diffusione di disinformazione e minando la credibilità dei contenuti generati. Esempi classici includono l’invenzione di eventi o date storiche, la falsificazione di statistiche o la citazione di studi di ricerca o autori inesistenti. Si tratta, con ogni probabilità, della forma di allucinazione più dannosa, perché tali alterazioni fattuali possono propagare direttamente la disinformazione.

Questa è la forma canonica di allucinazione estrinseca. Infatti, il problema riguarda la realtà esterna o la conoscenza consolidata (fatti, eventi, citazioni inventati).

Output senza senso (Nonsensical Output)

Con nonsensical outptut si indicano risposte prive di coerenza logica o di contenuto significativo, che riducono l’usabilità e l’affidabilità dei LLM nelle applicazioni pratiche. Ne fanno parte frasi auto‑contraddittorie e affermazioni impossibili. Ad esempio, un modello potrebbe generare il seguente output:

“Un cerchio ha quattro lati e quattro angoli.”

Questo è principalmente un esempio di allucinazione intrinseca: l’output viola la coerenza logica o semantica di base, quindi si tratta soprattutto di un’incoerenza interna. Può tuttavia essere visto anche come un’allucinazione estrinseca, poiché spesso l’affermazione è anche fattualmente/oggettivamente errata.

Allucinazioni irrilevanti o casuali (Irrelevant or Random Hallucinations)

Le Irrelevant or Random Hallucinations si verificano quando i LLM producono informazioni irrilevanti o casuali, non correlate all’input o all’output desiderato, generando confusione e riducendo l’utilità del testo prodotto. Ad esempio, dato il prompt:

“Descrivi le regole del gioco del calcio”

un modello potrebbe produrre come output:

“Il calcio si gioca tra due squadre di undici giocatori, e l’obiettivo è segnare gol facendo oltrepassare completamente il pallone la linea della porta della squadra avversaria. I giocatori non possono usare le mani, eccetto il portiere. È interessante notare che la Grande Muraglia Cinese è lunga oltre 13.000 miglia e il miele non va mai a male”.

Il problema principale è l’irrilevanza rispetto al prompt o al compito — un fallimento di allineamento contestuale — che è intrinseca. Se l’aggiunta casuale contiene anche fatti inventati — ad esempio, nel nostro caso, dati errati sulla Grande Muraglia o informazioni errate sul miele — quella parte è anche estrinseca. Nella maggior parte delle tassonomie, questa tipologia di allucinazione è trattata principalmente come una forma di disallineamento intrinseco.

Ricordiamoci inoltre che gli output dei LLM possono appartenere contemporaneamente a più di tra le categorie appena descritte, pertanto esse non per forza sono mutualmente esclusive.

 

Conclusioni

Abbiamo visto in questo articolo il primo aspetto del fenomeno “allucinazioni negli LLM”, vale a dire la tipologia di allucinazione, con la differenziazione tra quelle intrinseche e quelle estrinseche. Manca però il secondo aspetto del fenomeno: da cosa dipendono le allucinazioni e in che modo è possibile limitarle e mitigarne gli effetti potenzialmente molto impattanti? per ora, basti dire che le cause sono varie e spesso si combinano.

Il modo di funzionamento degli LLM, poi, fa sì che espressioni stilisticamente fluide, retoricamente soddisfacenti e sicure tendano a prevalere rispetto a risposte caute, prudenti o esplicitamente incerte. Quando la conoscenza è incompleta o incerta, il modello tende quindi a generare congetture fluide piuttosto che a esitare o a rifiutarsi di rispondere, rendendo pertanto caratteristica la modalità di fallimento con risposte “plausibili ma false”. Ma lo vedremo in dettaglio nel prossimo articolo.

 

 

Riferimenti

[Weiser, 2023] Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT. The New York Times
https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html

 

[Zezinho , 2023] José Antonio Ribeiro Neto Zezinho, ChatGTP and the Generative AI Hallucinations. Medium
https://medium.com/chatgpt-learning/chatgtp-and-the-generative-ai-hallucinations-62feddc72369

 

[Edwards, 2023] Ned Edwards, February 15, 2023
pic.twitter.com/ttwxg2EX0H

 

[Coulter and Bensinger, 2023] Martin Coulter – Greg Bensinger, Alphabet shares dive after Google AI chatbot Bard flubs answer in ad
https://www.reuters.com/technology/google-ai-chatbot-bard-offers-inaccurate-information-company-ad-2023-02-08/

 

[Kundaliya, 2026] Dev Kundaliya, West Midlands police admit AI error behind decision to ban Maccabi Tel Aviv fans from UK match
https://www.computing.co.uk/news/2026/ai/west-mids-police-copilot-mistake-maccabi-fan-ban

 

[Browne, 1646] Browne T, XVIII: That Moles are blinde and have no eyes. Pseudodoxia Epidemica, vol. III.”, 1646

 

[Mjolsness, 1986] Eric Mjolsness, Neural Networks, Pattern Recognition, and Fingerprint Hallucination
https://www.researchgate.net/publication/36713399_Neural_Networks_Pattern_Recognition_and_Fingerprint_Hallucination

 

[Koehn and Knowles, 2017] Philipp Koehn – Rebecca Knowles, Six Challenges for Neural Machine Translation

https://aclanthology.org/W17-3204/

 

[Weston, Shuster, 2021] Jason Weston – Kurt Shuster, Blender Bot 2.0: An open source chatbot that builds long-term memory and searches the internet
https://ai.meta.com/blog/blender-bot-2-an-open-source-chatbot-that-builds-long-term-memory-and-searches-the-internet/

 

[Østergaard et al., 2023] Søren Dinesen Østergaard — Kristoffer Laigaard Nielbo, False Responses From Artificial Intelligence Models Are Not Hallucinations. Schizophrenia Bulletin
https://academic.oup.com/schizophreniabulletin/article-abstract/49/5/1105/7176424?redirectedFrom=fulltext&login=true

 

[Bilan, 2023] Maryna Bilan, Hallucinations in LLMs: What You Need to Know Before Integration. Master of code
https://masterofcode.com/blog/hallucinations-in-llms-what-you-need-to-know-before-integration

 

[Ji et al., 2023] Ji Z. – Lee N. – Frieske R. – Yu T. – Su D. – Xu Y. – Ishii E. – Bang Y. – Madotto A. – Fung P. (2023), Survey of Hallucination in Natural Language Generation. ACM Computing Surveys
https://dl.acm.org/doi/10.1145/3571730

 

[Winerman, 2006] Lea Winerman, E-mails and egos Monitor Staff. American Psychological Association, Science Watch Vol 37, No. 2

 

[Hampton, 2022] Jaime Hampton, Data Quality Study Reveals Business Impacts of Bad Data
https://www.datanami.com/2022/06/17/data-quality-study-reveals-business-impacts-of-bad-data/

 

[Davenport et al., 2019] Thomas H. Davenport – Jim Guszcza – Tim Smith – Ben Stiller, Analytics and AI-driven enterprises thrive in the Age of With. Deloitte Insights
https://www2.deloitte.com/us/en/insights/topics/analytics/insight-driven-organization.html

 

[Connelly, 2023] Shane Connelly, Measuring Hallucinations in RAG Systems. Vectara
https://vectara.com/measuring-hallucinations-in-rag-systems/

 

[Welch and Schneider, 2023] Nicholas Welch – Jordan Schneider, China’s Censors Are Afraid of What Chatbots Might Say. Foreign Policy
https://foreignpolicy.com/2023/03/03/china-censors-chatbots-artificial-intelligence/

 

[Karpathy, 2015] Andrej Karpathy, The Unreasonable Effectiveness of Recurrent Neural Networks
https://karpathy.github.io/2015/05/21/rnn-effectiveness/5

 

[Ehtesham, 2025] Hira Ehtesham, AI Hallucination Report 2026: Which AI Hallucinates the Most?
https://www.allaboutai.com/resources/ai-statistics/ai-hallucinations/#ai-hallucination-scoreboard

 

 

Facebook
Twitter
LinkedIn
Luca Vetti Tagliati
Luca Vetti Tagliati

Luca è un professionista esperto che ha ricoperto ruoli di alto profilo a Londra, New York e in Svizzera per banche di primo livello, tra cui UBS, Credit Suisse, Goldman Sachs, Lehman Brothers, Deutsche Bank e HSBC.

È pienamente qualificato per lavorare come Enterprise Architect, CTO e Technical Program Manager riuscendo a gestire i progetti con un'ottica multiruolo. La profonda comprensione della tecnologia, combinata con mirate strategie di gestione, ha permesso a Luca di gestire brillantemente programmi complessi con tempistiche aggressive.

La sua strategia di pensiero è un mix di visione e pragmatismo. Il suo background accademico, che include un dottorato di ricerca, è solidamente integrato da una vasta esperienza pratica, avendo completato tutti i suoi percorsi universitari mentre lavorava a tempo pieno nell'industria.

Negli ultimi anni, Luca ha riscoperto la sua passione per l'intelligenza artificiale, grazie alla sua posizione di Global Head for AI for Data Analytics and Innovations.

È anche autore di numerose pubblicazioni, tra cui

  • UML e l’ingegneria del software: dalla teoria alla pratica (2004)
  • Java Best Practices (2008)
  • Verso Java SE 8: Note per lo sviluppatore in Java 7 (2013)

Luca ha anche pubblicato numerosi articoli sull'IA e altri argomenti disponibili in riviste IT e sul web.

 

Immagine di Luca Vetti Tagliati

Luca Vetti Tagliati

Luca è un professionista esperto che ha ricoperto ruoli di alto profilo a Londra, New York e in Svizzera per banche di primo livello, tra cui UBS, Credit Suisse, Goldman Sachs, Lehman Brothers, Deutsche Bank e HSBC. È pienamente qualificato per lavorare come Enterprise Architect, CTO e Technical Program Manager riuscendo a gestire i progetti con un'ottica multiruolo. La profonda comprensione della tecnologia, combinata con mirate strategie di gestione, ha permesso a Luca di gestire brillantemente programmi complessi con tempistiche aggressive. La sua strategia di pensiero è un mix di visione e pragmatismo. Il suo background accademico, che include un dottorato di ricerca, è solidamente integrato da una vasta esperienza pratica, avendo completato tutti i suoi percorsi universitari mentre lavorava a tempo pieno nell'industria. Negli ultimi anni, Luca ha riscoperto la sua passione per l'intelligenza artificiale, grazie alla sua posizione di Global Head for AI for Data Analytics and Innovations. È anche autore di numerose pubblicazioni, tra cui
  • UML e l’ingegneria del software: dalla teoria alla pratica (2004)
  • Java Best Practices (2008)
  • Verso Java SE 8: Note per lo sviluppatore in Java 7 (2013)
Luca ha anche pubblicato numerosi articoli sull'IA e altri argomenti disponibili in riviste IT e sul web.  
Tutti gli articoli
Nello stesso numero
Loading...

OpenClaw (già ClawdBot e MoltBot)

Quando l’automazione facile diventa un incubo di sicurezza

Talento, performance, carriera: uno sguardo d’insieme

VI parte: Ma che significa “feedback”?

Agile è morto. Lunga vita all’Agilità

III parte: Le interviste agli agilisti

Nella stessa serie
Loading...

Modelli LLM: Come funzionano?

VII parte: Cause delle allucinazioni e modalità per limitarle

LLMs models: how do they work?

Part 6: AI hallucinations defined

LLMs models: how do they work?

Part 5: Transformer Architecture. Working principles and adaptability

Modelli LLM: Come funzionano?

V parte: Architettura Transformer. Funzionamento e adattamenti

Modelli LLM: Come funzionano?

IV parte: Architettura Transformer. I requisiti

LLMs models: how do they work?

Part 4: Transformer Architecture. Requirements

LLMs models: how do they work?

Part 3: Embeddings

Modelli LLM: Come funzionano?

III parte: Embeddings

LLMs models: how do they work?

Part 2: BNN vs ANN, an OO View

Modelli LLM: Come funzionano?

II parte: BNN e ANN, una visione OO

Modelli LLM: Come funzionano?

I parte: ANN (Artificial Neural Network), reti neurali artificiali

LLMs models: how do they work?

Part 1: Artificial Neural Networks

Mokabyte

MokaByte è una rivista online nata nel 1996, dedicata alla comunità degli sviluppatori java.
La rivista tratta di vari argomenti, tra cui architetture enterprise e integrazione, metodologie di sviluppo lean/agile e aspetti sociali e culturali del web.

Imola Informatica

MokaByte è un marchio registrato da:
Imola Informatica S.P.A.
Via Selice 66/a 40026 Imola (BO)
C.F. e Iscriz. Registro imprese BO 03351570373
P.I. 00614381200
Cap. Soc. euro 100.000,00 i.v.

Privacy | Cookie Policy

Contatti

Contattaci tramite la nostra pagina contatti, oppure scrivendo a redazione@mokabyte.it

Seguici sui social

Facebook Linkedin Rss
Imola Informatica
Mokabyte