Mokabyte

Dal 1996, architetture, metodologie, sviluppo software

  • Argomenti
    • Programmazione & Linguaggi
      • Java
      • DataBase & elaborazione dei dati
      • Frameworks & Tools
      • Processi di sviluppo
    • Architetture dei sistemi
      • Sicurezza informatica
      • DevOps
    • Project Management
      • Organizzazione aziendale
      • HR
      • Soft skills
    • Lean/Agile
      • Scrum
      • Teoria della complessità
      • Apprendimento & Serious Gaming
    • Internet & Digital
      • Cultura & Società
      • Conferenze & Reportage
      • Marketing & eCommerce
    • Hardware & Tecnologia
      • Intelligenza artificiale
      • UX design & Grafica
  • Ultimo numero
  • Archivio
    • Archivio dal 2006 ad oggi
    • Il primo sito web – 1996-2005
  • Chi siamo
  • Ventennale
  • Libri
  • Contatti
  • Argomenti
    • Programmazione & Linguaggi
      • Java
      • DataBase & elaborazione dei dati
      • Frameworks & Tools
      • Processi di sviluppo
    • Architetture dei sistemi
      • Sicurezza informatica
      • DevOps
    • Project Management
      • Organizzazione aziendale
      • HR
      • Soft skills
    • Lean/Agile
      • Scrum
      • Teoria della complessità
      • Apprendimento & Serious Gaming
    • Internet & Digital
      • Cultura & Società
      • Conferenze & Reportage
      • Marketing & eCommerce
    • Hardware & Tecnologia
      • Intelligenza artificiale
      • UX design & Grafica
  • Ultimo numero
  • Archivio
    • Archivio dal 2006 ad oggi
    • Il primo sito web – 1996-2005
  • Chi siamo
  • Ventennale
  • Libri
  • Contatti

Intelligenza artificiale

Home » Intelligenza artificiale

Loading...
N°
325 marzo
2026

Sviluppo software assistito da LLM

Lo Ubiquitous Language come sistema di controllo

Alberto Acerbis
Lo sviluppo software assistito dai modelli di intelligenza artificiale è ormai una realtà assodata. Che lo si chiami “vibecoding” o in altri modi, sempre più...
> Continua a leggere
N°
325 marzo
2026

Modelli LLM: Come funzionano?

VII parte: Cause delle allucinazioni e modalità per limitarle

Luca Vetti Tagliati
Le allucinazioni dei LLM hanno delle cause ben precise, che vedremo in questo articolo, in cui parleremo anche delle strategie attuabili per ridurre e mitigare...
> Continua a leggere
N°
325 marzo
2026

L’interfaccia vocale è un vicolo cieco

Il futuro è nel “pensiero”?

Matteo Baccan
Un’analisi sulle interfacce di comunicazione, con uno sguardo alle innovazioni che puntano al superamento di immissione scritta o vocale in favore di sistemi diretti cervello-dispositivo,...
> Continua a leggere
N°
nonumber
2026

LLMs models: how do they work?

Part 6: AI hallucinations defined

Luca Vetti Tagliati
One of the most paradoxical behaviours of generative artificial intelligence is exemplified by so-called “hallucinations”: entirely incorrect responses, inconsistencies, and the outright fabrication of false...
> Continua a leggere
N°
324 febbraio
2026

OpenClaw (già ClawdBot e MoltBot)

Quando l’automazione facile diventa un incubo di sicurezza

Dario Ferrero
OpenClaw è un assistente AI che consente un’automazione semplice e accessibile. Ma nel suo uso si nascondono rischi concreti e misurabili per la sicurezza dei...
> Continua a leggere
N°
324 febbraio
2026

Modelli LLM: Come funzionano?

VI parte: Definizione e tipologia delle allucinazioni

Luca Vetti Tagliati
Uno dei comportamenti più contraddittori dell’Intelligenza Artificiale generativa è rappresentato dalle cosiddette “allucinazioni”: risposte completamente sbagliate, incongruenze, vere e proprie invenzioni di informazioni false o...
> Continua a leggere
N°
nonumber
2026

LLMs models: how do they work?

Part 5: Transformer Architecture. Working principles and adaptability

Luca Vetti Tagliati
The Transformer architecture (TA) has rapidly become the gold standard in the field of Large Language Models. Having examined its foundational requirements, this article explores...
> Continua a leggere
N°
323 gennaio
2026

Modelli LLM: Come funzionano?

V parte: Architettura Transformer. Funzionamento e adattamenti

Luca Vetti Tagliati
L’architettura Transformer (TA) è diventata rapidamente lo standard di riferimento nel settore dei Large Language Models. Dopo aver visto i requisiti alla sua base, in...
> Continua a leggere
N°
322 dicembre
2025

Modelli LLM: Come funzionano?

IV parte: Architettura Transformer. I requisiti

Luca Vetti Tagliati
Il Transformer è un’architettura di rete neurale che si basa interamente sui meccanismi di attenzione per identificare le relazioni tra le diverse parti di una...
> Continua a leggere
N°
nonumber
2025

LLMs models: how do they work?

Part 4: Transformer Architecture. Requirements

Luca Vetti Tagliati
The Transformer Architecture (TA) is a neural network designed specifically for NLP (natural language processing) tasks. Unlike older models such as RNNs (recurrent neural networks)...
> Continua a leggere
N°
321 novembre
2025

L’intelligenza artificiale tra diritto e uso sociale

II parte: Le ricadute su aziende e professionisti

Francesco Saliola
Concludiamo la nostra panoramica sugli aspetti legali connessi all’intelligenza artificiale, analizzando il quadro normativo e le sue conseguenze pratiche sulle attività delle aziende e dei...
> Continua a leggere
N°
321 novembre
2025

La programmazione nell’era dell’AI generativa

Ha ancora senso apprendere i linguaggi?

Luigi Mandarino
Le potenzialità dell’Intelligenza Artificiale come assistente nella programmazione sono cresciute in maniera impressionante negli ultimissimi anni. Di questo passo, ha ancora senso conoscere bene i...
> Continua a leggere
N°
nonumber
2025

LLMs models: how do they work?

Part 3: Embeddings

Luca Vetti Tagliati
Let’s continue our overview on how Large Language Models function, the models upon which generative AI applications are based. This article addresses the Embeddings, that...
> Continua a leggere
N°
320 ottobre
2025

L’illusione della sostituzione

L’AI e il ruolo dei junior nel lavoro che cambia

Giovanni Puliti
Tra gli impatti dell’introduzione dei sistemi di intelligenza artificiale nelle aziende, una tendenza è apparentemente sorprendente: la riduzione di assuzioni di tecnici junior a favore...
> Continua a leggere
N°
320 ottobre
2025

Real Time Knowledge Injection

Accrescere l’“intelligenza” dei chatbot

Luca Giudici
In che modo è possibile aumentare la memoria a breve termine di chatbot e agenti virtuali, migliorandone le prestazioni? In questo articolo analizziamo le possibili...
> Continua a leggere
N°
320 ottobre
2025

Modelli LLM: Come funzionano?

III parte: Embeddings

Luca Vetti Tagliati
Continuiamo con la nostra panoramica sul funzionamento dei Large Language Models, i modelli su cui si basano le applicazioni di intelligenza artificiale generativa. In questo...
> Continua a leggere
N°
320 ottobre
2025

L’intelligenza artificiale tra diritto e uso sociale

I parte: AI Act e legge italiana sull’intelligenza artificiale

Francesco Saliola
In questo primo articolo, e poi nella seconda parte di questa miniserie, vedremo gli aspetti legali connessi all’intelligenza artificiale, analizzando il quadro normativo e le...
> Continua a leggere
N°
nonumber
2025

LLMs models: how do they work?

Part 2: BNN vs ANN, an OO View

Luca Vetti Tagliati
Let's continue our overview of how Large Language Models function, the models upon which generative AI applications are based. This article addresses the Object-Oriented representation...
> Continua a leggere
N°
319 settembre
2025

Modelli LLM: Come funzionano?

II parte: BNN e ANN, una visione OO

Luca Vetti Tagliati
Continuiamo con la nostra panoramica sul funzionamento dei Large Language Models, i modelli su cui si basano le applicazioni di intelligenza artificiale generativa. In questo...
> Continua a leggere
N°
318 luglio-agosto
2025

Vibe Coding: sviluppare il prodotto con l’AI

II parte: Sviluppo, test e lezioni apprese

Stefano Leli
Continuiamo la nostra descrizione del processo di sviluppo assistito dall’Intelligenza Artificiale andando ad analizzare alcuni aspetti pratici della creazione di un prodotto reale: strumenti, processi...
> Continua a leggere
N°
317 giugno
2025

Vibe Coding: sviluppare il prodotto con l’AI

I parte: I fondamenti del processo

Giovanni Puliti
I parte: I fondamenti del processo. I parte: I fondamenti del processo. Vibe coding è un approccio allo sviluppo software che utilizza l’intelligenza artificiale per...
> Continua a leggere
N°
317 giugno
2025

Modelli LLM: Come funzionano?

I parte: ANN (Artificial Neural Network), reti neurali artificiali

Luca Vetti Tagliati
I parte: ANN (Artificial Neural Network), reti neurali artificiali. Cominciamo con questo numero una panoramica approfondita sul funzionamento dei Large Language Models, i modelli su...
> Continua a leggere
N°
nonumber
2025

LLMs models: how do they work?

Part 1: Artificial Neural Networks

Luca Vetti Tagliati
Part 1: Artificial Neural Networks. An overview on Large Language Models (LLMs), the way they have been developed and how they work.
> Continua a leggere
N°
315 aprile
2025

Il web al tempo della GEO (Generative Engine Optimization)

II parte: Strategie per strutturare i contenuti

Giovanni Puliti
II parte: Strategie per strutturare i contenuti. La Generative Engine Optimization (GEO) è la pratica di ottimizzare i propri contenuti affinché vengano utilizzati dai modelli...
> Continua a leggere
1 2 3 Successivi »
Mokabyte

MokaByte è una rivista online nata nel 1996, dedicata alla comunità degli sviluppatori java.
La rivista tratta di vari argomenti, tra cui architetture enterprise e integrazione, metodologie di sviluppo lean/agile e aspetti sociali e culturali del web.

Imola Informatica

MokaByte è un marchio registrato da:
Imola Informatica S.P.A.
Via Selice 66/a 40026 Imola (BO)
C.F. e Iscriz. Registro imprese BO 03351570373
P.I. 00614381200
Cap. Soc. euro 100.000,00 i.v.

Privacy | Cookie Policy

Contatti

Contattaci tramite la nostra pagina contatti, oppure scrivendo a redazione@mokabyte.it

Seguici sui social

Facebook Linkedin Rss
Imola Informatica
Mokabyte