Mokabyte

Dal 1996, architetture, metodologie, sviluppo software

  • Argomenti
    • Programmazione & Linguaggi
      • Java
      • DataBase & elaborazione dei dati
      • Frameworks & Tools
      • Processi di sviluppo
    • Architetture dei sistemi
      • Sicurezza informatica
      • DevOps
    • Project Management
      • Organizzazione aziendale
      • HR
      • Soft skills
    • Lean/Agile
      • Scrum
      • Teoria della complessità
      • Apprendimento & Serious Gaming
    • Internet & Digital
      • Cultura & Società
      • Conferenze & Reportage
      • Marketing & eCommerce
    • Hardware & Tecnologia
      • Intelligenza artificiale
      • UX design & Grafica
  • Ultimo numero
  • Archivio
    • Archivio dal 2006 ad oggi
    • Il primo sito web – 1996-2005
  • Chi siamo
  • Ventennale
  • Libri
  • Contatti
  • Argomenti
    • Programmazione & Linguaggi
      • Java
      • DataBase & elaborazione dei dati
      • Frameworks & Tools
      • Processi di sviluppo
    • Architetture dei sistemi
      • Sicurezza informatica
      • DevOps
    • Project Management
      • Organizzazione aziendale
      • HR
      • Soft skills
    • Lean/Agile
      • Scrum
      • Teoria della complessità
      • Apprendimento & Serious Gaming
    • Internet & Digital
      • Cultura & Società
      • Conferenze & Reportage
      • Marketing & eCommerce
    • Hardware & Tecnologia
      • Intelligenza artificiale
      • UX design & Grafica
  • Ultimo numero
  • Archivio
    • Archivio dal 2006 ad oggi
    • Il primo sito web – 1996-2005
  • Chi siamo
  • Ventennale
  • Libri
  • Contatti

aillm

Home » aillm

Loading...
N°
323 gennaio
2026

Modelli LLM: Come funzionano?

V parte: Architettura Transformer. Funzionamento e adattamenti

Luca Vetti Tagliati
L’architettura Transformer (TA) è diventata rapidamente lo standard di riferimento nel settore dei Large Language Models. Dopo aver visto i requisiti alla sua base, in...
> Continua a leggere
N°
322 dicembre
2025

Modelli LLM: Come funzionano?

IV parte: Architettura Transformer. I requisiti

Luca Vetti Tagliati
Il Transformer è un’architettura di rete neurale che si basa interamente sui meccanismi di attenzione per identificare le relazioni tra le diverse parti di una...
> Continua a leggere
N°
nonumber
2025

LLMs models: how do they work?

Part 4: Transformer Architecture. Requirements

Luca Vetti Tagliati
The Transformer Architecture (TA) is a neural network designed specifically for NLP (natural language processing) tasks. Unlike older models such as RNNs (recurrent neural networks)...
> Continua a leggere
N°
nonumber
2025

LLMs models: how do they work?

Part 3: Embeddings

Luca Vetti Tagliati
Let’s continue our overview on how Large Language Models function, the models upon which generative AI applications are based. This article addresses the Embeddings, that...
> Continua a leggere
N°
320 ottobre
2025

Modelli LLM: Come funzionano?

III parte: Embeddings

Luca Vetti Tagliati
Continuiamo con la nostra panoramica sul funzionamento dei Large Language Models, i modelli su cui si basano le applicazioni di intelligenza artificiale generativa. In questo...
> Continua a leggere
N°
nonumber
2025

LLMs models: how do they work?

Part 2: BNN vs ANN, an OO View

Luca Vetti Tagliati
Let's continue our overview of how Large Language Models function, the models upon which generative AI applications are based. This article addresses the Object-Oriented representation...
> Continua a leggere
N°
319 settembre
2025

Modelli LLM: Come funzionano?

II parte: BNN e ANN, una visione OO

Luca Vetti Tagliati
Continuiamo con la nostra panoramica sul funzionamento dei Large Language Models, i modelli su cui si basano le applicazioni di intelligenza artificiale generativa. In questo...
> Continua a leggere
N°
317 giugno
2025

Modelli LLM: Come funzionano?

I parte: ANN (Artificial Neural Network), reti neurali artificiali

Luca Vetti Tagliati
I parte: ANN (Artificial Neural Network), reti neurali artificiali. Cominciamo con questo numero una panoramica approfondita sul funzionamento dei Large Language Models, i modelli su...
> Continua a leggere
N°
nonumber
2025

LLMs models: how do they work?

Part 1: Artificial Neural Networks

Luca Vetti Tagliati
Part 1: Artificial Neural Networks. An overview on Large Language Models (LLMs), the way they have been developed and how they work.
> Continua a leggere
Mokabyte

MokaByte è una rivista online nata nel 1996, dedicata alla comunità degli sviluppatori java.
La rivista tratta di vari argomenti, tra cui architetture enterprise e integrazione, metodologie di sviluppo lean/agile e aspetti sociali e culturali del web.

Imola Informatica

MokaByte è un marchio registrato da:
Imola Informatica S.P.A.
Via Selice 66/a 40026 Imola (BO)
C.F. e Iscriz. Registro imprese BO 03351570373
P.I. 00614381200
Cap. Soc. euro 100.000,00 i.v.

Privacy | Cookie Policy

Contatti

Contattaci tramite la nostra pagina contatti, oppure scrivendo a redazione@mokabyte.it

Seguici sui social

Facebook Linkedin Rss
Imola Informatica
Mokabyte