Mokabyte

Dal 1996, architetture, metodologie, sviluppo software

  • Argomenti
    • Programmazione & Linguaggi
      • Java
      • DataBase & elaborazione dei dati
      • Frameworks & Tools
      • Processi di sviluppo
    • Architetture dei sistemi
      • Sicurezza informatica
      • DevOps
    • Project Management
      • Organizzazione aziendale
      • HR
      • Soft skills
    • Lean/Agile
      • Scrum
      • Teoria della complessità
      • Apprendimento & Serious Gaming
    • Internet & Digital
      • Cultura & Società
      • Conferenze & Reportage
      • Marketing & eCommerce
    • Hardware & Tecnologia
      • Intelligenza artificiale
      • UX design & Grafica
  • Ultimo numero
  • Archivio
    • Archivio dal 2006 ad oggi
    • Il primo sito web – 1996-2005
  • Chi siamo
  • Ventennale
  • Libri
  • Contatti
  • Argomenti
    • Programmazione & Linguaggi
      • Java
      • DataBase & elaborazione dei dati
      • Frameworks & Tools
      • Processi di sviluppo
    • Architetture dei sistemi
      • Sicurezza informatica
      • DevOps
    • Project Management
      • Organizzazione aziendale
      • HR
      • Soft skills
    • Lean/Agile
      • Scrum
      • Teoria della complessità
      • Apprendimento & Serious Gaming
    • Internet & Digital
      • Cultura & Società
      • Conferenze & Reportage
      • Marketing & eCommerce
    • Hardware & Tecnologia
      • Intelligenza artificiale
      • UX design & Grafica
  • Ultimo numero
  • Archivio
    • Archivio dal 2006 ad oggi
    • Il primo sito web – 1996-2005
  • Chi siamo
  • Ventennale
  • Libri
  • Contatti

Nel numero:

320 ottobre
, anno 2025

L’intelligenza artificiale tra diritto e uso sociale

I parte: AI Act e legge italiana sull’intelligenza artificiale

Francesco Saliola
Francesco Saliola

A MokaByte mi occupo dei processi legati alla gestione degli autori e della redazione degli articoli. Collateralmente, svolgo attività di consulenza e formazione nell‘ambito dell‘editoria "tradizionale" e digitale, della scrittura professionale e della comunicazione sulle diverse piattaforme.

Normativa AI

L’intelligenza artificiale tra diritto e uso sociale

I parte: AI Act e legge italiana sull’intelligenza artificiale

Immagine di Francesco Saliola

Francesco Saliola

  • Questo articolo parla di: Cultura & Società, Intelligenza artificiale

Aspetti sociali dell’Intelligenza Artificiale

Molti anni fa, su queste pagine, pubblicammo una serie di articoli intitolata Aspetti sociali del web. Nella I parte di quella serie — intitolata Tecnologie e comportamenti, che ripubblichiamo in questo numero per comodità del lettore — si affrontava un tema complesso ma che già allora era annoso: qual è l’influenza che le nuove tecnologie hanno sui comportamenti delle persone che le adottano?

Con esempi tratti dall’antropologia e dalle scienze sociali, discutevamo del fatto che, se all’inizio si tende a utilizzare gli strumenti nuovi con mentalità vecchia, successivamente le potenzialità innovative degli strumenti emergono prepotentemente e finiscono per modificare i comportamenti precedenti. In tal senso, è noto quell’episodio per cui bambini nativamente digitali, esposti fin da piccoli all’uso dei dispositivi portatili che consentono la visualizzazione di immagini digitali, tendano poi a cercare di fare lo zoom con il gesto delle due dita che si allargano… anche su fotografie stampate su carta.

Intelligenza artificiale: non solo tecnologia

Se questo vale in generale per tutti gli strumenti, anche analogici, inventati dall’essere umano nel corso della sua lunga storia — dagli attrezzi agricoli alle macchine utensili, dalla stampa a caratteri mobili al telefono — a maggior ragione vale per gli strumenti digitali e per l’AI, che si rivelano in tutta loro potenza e pervasività.

È riduttivo e semplicistico pensare a questi elementi come invenzioni solamente tecnologiche. Il fatto è che l’uso di strumenti potenti come l’Intelligenza Artificiale ha dei risvolti enormi sul piano culturale e antropologico: siamo appena all’inizio di un fenomeno in grado, ad esempio, di ridefinire i confini del concetto di vero e verosimile, di passato e presente, di spazialità e localizzazione, di autorità e competenza solo per dirne alcune. “L’ho sentito da ChatGPT” è diventato il nuovo “L’hanno detto alla televisione”…

È chiaro quindi che, con le applicazioni basate sui Large Language Models, non stiamo parlando solo di tecnologie, per quanto si tratti di un aspetto fondamentale, ma anche di temi culturali e di dilemmi etici.

Diventa pertanto inevitabile che del fenomeno si occupi anche il legislatore: “Dove c’è una società deve esserci un diritto”, dicevano gli antichi romani, la cui eredità di leggi sta alla base del diritto moderno di gran parte delle nazioni europee, e non solo.

In questa miniserie vedremo in maniera semplice ma non superficiale, quali sono le leggi che normano al momento il mondo dell’Intelligenza Articiciale e ci concentremo poi, nel prossimo articolo su alcuni aspetti molto pratici che derivano da tali leggi e che riguardano aziende e professionisti, con una riflessione anche sul tema del copyright che diventa centrale ogni qualvolta si crei qualcosa con l’AI o si addestrino dei sistemi AI utilizzando il materiale esistente, che spesso è coperto proprio da diritto d’autore.

 

Il quadro normativo europeo e italiano

In un momento in cui, come appena detto, l’Intelligenza Artificiale porta a una trasformazione pervasiva in ogni settore professionale e sociale, il legislatore europeo e quello italiano hanno agito per definire un quadro normativo robusto per governarne lo sviluppo e l’impiego.

L’Unione Europea ha promulgato il cosiddetto “AI Act” ossia il Regolamento (UE) 2024/1689 [1]: nel sistema normativo europeo, gli stati membri della UE sono tenuti, attraverso specifiche leggi nazionali, a recepire quanto contenuto dai regolamenti europei in ambito comunitario. E tali leggi possono anche apportare piccole modifiche e integrazioni a quanto previsto nel Regolamento UE, ma mai al punto da stravolgere o “trasgredire” il senso della norma europea.

Va in tal senso, appunto, la Legge 23 settembre 2025, n. 132 [2] entrata in vigore negli scorsi giorni, che è una “legge delega”, ossia uno strumento normativo con cui il Parlamento, organo legislativo della nostra Repubblica, delega al Governo la effettiva specifica degli aspetti più “operativi”, diciamo così, della norma: questo, tanto per semplificare, sapendo bene che uno studente di giurisprudenza che usasse tali termini e tale spiegazione sarebbe giustamente bocciato all’esame…

Ad ogni modo, il principio cardine che accomuna necessariamente l’impianto dell’atto normativo europeo e di quello italiano è la centralità dell’essere umano: l’AI è concepita come uno strumento a supporto delle capacità umane, non come un sostituto del giudizio, della decisione e della creatività.

Vediamo quindi di seguito i punti salienti di entrambe le norme, ricordando che, nella II parte, che pubblicheremo nel numero successivo di MokaByte, analizzeremo una serie di conseguenze pratiche e di ricadute su vari settori professionali.

Una rivoluzione globale

La rapida e capillare diffusione dei sistemi di Intelligenza Artificiale, oltre a portare entusiasmo e opportunità di sviluppo tecnologico, ha generato un dibattito globale sulla necessità di un quadro giuridico che ne governi lo sviluppo e l’applicazione, con l’obiettivo di bilanciare due esigenze fondamentali: da un lato, la promozione dell’innovazione e della competitività economica; dall’altro, la tutela dei diritti fondamentali, della democrazia e dello stato di diritto.

In questo scenario, l’Unione Europea ha assunto un ruolo pionieristico, cercando di definire uno standard globale per una regolamentazione dell’AI che sia etica e affidabile. In questo processo ha pesato l’esperienza maturata con la realizzazione, nello scorso decennio, del Regolamento Generale sulla Protezione dei Dati, noto come GDPR, che è poi stato recepito dalle legislazioni nazionali degli Stati europei: l’UE mira a esportare il proprio modello normativo, posizionando l’AI Act come il pilastro di un ecosistema di “AI affidabile” (trustworthy AI). Questo approccio vorrebbe non essere meramente difensivo, ma strategico, volto a creare un mercato in cui la fiducia dei cittadini e la certezza del diritto diventino un vantaggio competitivo per le imprese europee.

L’approccio europeo all’AI si fonda su un duplice obiettivo: raggiungere l’eccellenza per competere a livello mondiale e, al contempo, garantire che la tecnologia sia sviluppata e utilizzata in conformità con i valori dell’Unione. Questa strategia si articola su diversi pilastri, tra cui ingenti investimenti in infrastrutture — come le “AI Factories” e le “Gigafactories” —, una solida governance dei dati e, soprattutto, un quadro giuridico chiaro e armonizzato. L’intento è creare un ambiente in cui l’AI possa prosperare “dal laboratorio al mercato”, ma sempre al servizio delle persone e come forza positiva per la società.

Il problema fondamentale

La sfida principale che i legislatori si trovano ad affrontare è come regolamentare una “tecnologia per scopi generali” (general purpose technology), ossia una tecnologia che, come l’elettricità o internet, ha applicazioni trasversali in quasi ogni settore dell’economia e della vita quotidiana. Un algoritmo utilizzato per ottimizzare la logistica in un magazzino presenta rischi molto diversi rispetto a uno impiegato per la diagnosi medica o per la selezione del personale. È proprio per rispondere a questa complessità che sia il legislatore europeo sia quello italiano hanno adottato un approccio differenziato, che mira a calibrare gli obblighi normativi in base al contesto d’uso e al potenziale impatto sulla vita delle persone.

 

Cosa prevede l’AI Act (Regolamento (UE) 2024/1689)

Il Regolamento (UE) 2024/1689, comunemente noto come AI Act, costituisce la base della strategia europea per l’Intelligenza Artificiale. Approvato il 13 giugno 2024, è il primo quadro normativo completo al mondo sull’AI, destinato a fissare le regole per tutti gli Stati membri e a fungere da modello a livello internazionale.

Principi fondamentali: centralità della persona e affidabilità dei sistemi

L’obiettivo primario dell’AI Act è duplice: da un lato, creare un quadro normativo orizzontale e armonizzato che faciliti lo sviluppo e l’adozione di prodotti e servizi basati sull’AI all’interno del mercato unico europeo; dall’altro, garantire un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’UE.

Il regolamento è concepito per promuovere un’AI “antropocentrica”, in cui la tecnologia rimane uno strumento al servizio dell’umanità. In questo modo, si intende creare la certezza giuridica necessaria per stimolare gli investimenti e l’innovazione, prevenendo al contempo la frammentazione normativa tra gli Stati membri.

Una tassonomia del rischio

Oltre a ribadire i principi appena elencati, l’AI Act adotta un approccio piuttosto pragmatico nel suo impianto: modulare gli obblighi legali in base al livello di rischio che un sistema di AI può comportare.  Questo meccanismo di classificazione è il cuore dell’intera architettura normativa e suddivide i sistemi di AI in quattro categorie principali:

  • livello 1 – rischio inaccettabile;
  • livello 2 – rischio elevato;
  • livello 3 – rischio limitato (rischio specifico di trasparenza);
  • livello 4 – rischio minimo.

In pratica, si analizzano situazioni e ambiti di applicazione dei sistemi di Intelligenza Artificiale, guardando a cosa questi sistemi potrebbero fare. Sulla base di tali considerazioni, si classificano i sistemi e le loro applicazioni all’interno dei vari livelli di rischio e si specificano o il divieto di utilizzo o una serie di obblighi che i produttori/operatori di tali sistemi sono tenuti a rispettare.

La tabella 1 riassume questa “tassonomia” del rischio.

Tabella 1 – La classificazione del rischio e i conseguenti obblighi secondo l’AI Act.
Tabella 1 – La classificazione del rischio e i conseguenti obblighi secondo l’AI Act.

 

Obblighi lungo la catena del valore

L’AI Act non si limita a regolare la tecnologia in astratto, ma definisce ruoli e responsabilità precise per i diversi attori economici coinvolti nel ciclo di vita di un sistema di AI. In particolare, gli attori vengono suddivisi in tre categorie:

  • fornitori (Providers)
  • utilizzatori (Deployers)
  • intermediari (importatori, distributori e rappresentanti autorizzati)

I fornitori (Providers) sono i soggetti che sviluppano un sistema di AI e lo immettono sul mercato o lo mettono in servizio. Su di loro ricade il carico di conformità più pesante, specialmente per i sistemi ad alto rischio poiché sono tenuti a istituire un sistema di gestione del rischio e un sistema di gestione della qualità; a sottoporre il sistema a una valutazione di conformità prima dell’immissione sul mercato; a garantire una rigorosa governance dei dati utilizzati per l’addestramento, al fine di minimizzare i rischi e i bias; a redigere e mantenere aggiornata una documentazione tecnica completa; a progettare il sistema per garantire trasparenza, supervisione umana e adeguati livelli di accuratezza, robustezza e cybersicurezza.

Gli utilizzatori (Deployers) sono i professionisti, le aziende o le entità pubbliche che utilizzano un sistema di AI ad alto rischio sotto la propria autorità (ad esempio, un ospedale che utilizza un software di diagnosi). I loro obblighi includono utilizzare il sistema in conformità con le istruzioni fornite dal fornitore; garantire che la supervisione umana sia effettiva e svolta da personale adeguatamente formato; monitorare il funzionamento del sistema e segnalare incidenti gravi al fornitore e alle autorità.

Gli importatori, distributori e rappresentanti autorizzati sono degli intermediari che hanno obblighi specifici di verifica per assicurare che i sistemi di AI che introducono nel mercato UE siano conformi, recanti la marcatura CE e accompagnati dalla documentazione necessaria.

Applicazione e governance

Per garantire un’applicazione uniforme ed efficace del regolamento, è stata istituita una nuova architettura di governance a livello europeo e nazionale.

A livello UE, è stato creato un Ufficio Europeo per l’AI (European AI Office). L’Ufficio è affiancato da un Comitato per l’AI (composto da rappresentanti degli Stati membri), un Gruppo di Esperti Scientifici indipendenti e un Forum Consultivo che riunisce i portatori di interessi (industria, società civile, mondo accademico).

A livello nazionale, ogni Stato membro deve designare una o più autorità nazionali competenti con poteri di vigilanza sul mercato, di indagine e sanzionatori.

Parallelamente alle autorità di vigilanza, è stato previsto un calendario che regoli un’entrata in vigore scaglionata delle diverse disposizioni dell’AI Act, secondo il quale, da febbraio 2025 fino ad agosto 2027 diventeranno vigenti i diversi obblighi. Quindi, entro meno di due anni dalla data di pubblicazione di questo articolo, le nazioni europee dovranno conformarsi all’AI Act nella sua interezza.

 

La legge nazionale italiana sull’Intelligenza Artificiale

Mentre l’AI Act europeo fornisce un quadro orizzontale e armonizzato, la Legge 23 settembre 2025, n. 132, entrata in vigore il 10 ottobre 2025, rappresenta l’attuazione nazionale italiana, volta a integrare e specificare la normativa comunitaria tenendo conto delle peculiarità del contesto nazionale [2].

In che modo la la legge italiana completa l’AI Act

Le disposizioni della legge 132 del 2025 si interpretano e si applicano “conformemente al regolamento (UE) 2024/1689”. L’approccio del legislatore italiano, tuttavia, diverge strategicamente da quello europeo: se l’AI Act adotta una logica “orizzontale” basata sul rischio, applicabile trasversalmente a tutti i settori, la legge italiana adotta un approccio “verticale” e “settoriale”, concentrandosi su ambiti ritenuti di particolare rilevanza strategica e sociale per il Paese. Questa scelta permette di calare i principi generali europei nella realtà specifica di alcune professioni e servizi pubblici, fornendo regole più granulari.

Questa architettura a due livelli crea una matrice di conformità più complessa per gli operatori in Italia. Un sistema di AI per la diagnosi medica, ad esempio, deve soddisfare sia i requisiti tecnici e procedurali per i sistemi ad “alto rischio” previsti dall’AI Act (come la gestione del rischio e la governance dei dati), sia le norme sostanziali e deontologiche dettate dalla legge italiana (come il divieto di discriminazione nell’accesso alle cure e la riaffermazione della responsabilità finale del medico). La conformità in Italia, quindi, non si esaurisce in una checklist tecnica rispetto al regolamento UE, ma richiede una valutazione contestuale, etica e professionale, guidata dalla normativa nazionale.

Disposizioni chiave

La legge italiana interviene con norme specifiche in diversi ambiti sensibili:

  • Sanità (artt. 7-8): Viene ribadito con forza il principio secondo cui l’AI deve fungere da mero supporto alla prevenzione, diagnosi e cura, lasciando la decisione clinica e la responsabilità finale al professionista sanitario. È vietato l’uso di sistemi di AI per discriminare o condizionare l’accesso alle prestazioni sanitarie e viene introdotto l’obbligo di informare il paziente sull’utilizzo di tali tecnologie. La legge istituisce inoltre una piattaforma nazionale di AI, gestita dall’Agenzia Nazionale per i Servizi Sanitari Regionali (AGENAS), per fornire servizi di supporto non vincolanti ai medici e ai professionisti sanitari. Infine, vengono facilitate le attività di ricerca scientifica che utilizzano dati sanitari, qualificandole come di “rilevante interesse pubblico” a determinate condizioni e previa comunicazione al Garante per la protezione dei dati personali.
  • Lavoro (artt. 11-12): Viene imposto ai datori di lavoro un obbligo informativo ampio e generalizzato sull’impiego di sistemi di AI che abbiano un impatto sui lavoratori. Questo obbligo è più stringente di quello previsto dall’AI Act, che lo limita ai soli sistemi ad alto rischio, e si allinea alla normativa nazionale sul controllo a distanza dei lavoratori.
  • Professioni intellettuali (art. 13): La legge stabilisce che l’uso dell’AI è consentito solo per “attività strumentali e di supporto”, con la “prevalenza del lavoro intellettuale” del professionista. Viene introdotto un nuovo e fondamentale obbligo di comunicare al cliente, con “linguaggio chiaro, semplice ed esaustivo”, le informazioni relative ai sistemi di AI utilizzati, al fine di preservare il rapporto fiduciario.
  • Giustizia e Pubblica Amministrazione (artt. 14-15): Si esclude categoricamente che l’AI possa sostituire il magistrato nell’interpretazione della legge, nella valutazione dei fatti e delle prove o nell’adozione di provvedimenti. L’uso di sistemi di AI è ammesso solo per attività di supporto, come l’organizzazione dei servizi giudiziari o l’analisi documentale, ma la decisione rimane un atto peculiarmente umano.
  • Diritto d’autore (art. 25): La legge modifica la Legge n. 633/1941 sul diritto d’autore per affrontare le questioni sollevate dall’AI generativa. Di questi aspetti parleremo diffusamente nel prossimo articolo.

Governance e competenze nazionali

Per l’attuazione e la vigilanza sulla normativa in materia di AI, la legge italiana designa due autorità nazionali principali, affiancate da un coordinamento strategico a livello governativo: l’Agenzia per la Cybersicurezza Nazionale (ACN) è designata responsabile di far rispettare la normativa, condurre attività ispettive e irrogare le sanzioni in caso di violazioni; l’Agenzia per l’Italia Digitale (AgID) svolge invece il ruolo di autorità di notifica, con il compito di accreditare e monitorare gli organismi terzi che saranno incaricati di certificare la conformità dei sistemi di AI ad alto rischio; infine, la Presidenza del Consiglio dei Ministri si incarica del coordinamento della Strategia Nazionale per l’AI, supportata da un apposito Comitato interministeriale, con l’obiettivo di allineare le iniziative pubbliche e private e di promuovere lo sviluppo tecnologico del Paese.

L’impatto sul diritto

A ulteriore garanzia dei diritti dei cittadini, la legge introduce significative novità anche in ambito penale e processuale, con la definizione di una nuova fattispecie di reato per punire l’illecita diffusione di contenuti generati o manipolati con sistemi di AI (i cosiddetti deepfake), con una pena della reclusione da uno a cinque anni. Inoltre, viene prevista un’aggravante specifica per i reati commessi “mediante l’impiego di sistemi di intelligenza artificiale” qualora questi costituiscano un mezzo insidioso.

 

Conclusioni

Terminata l’analisi degli elementi della normativa europea e nazionale, ci fermiamo qui per rimandare al prossimo articolo la discussione degli altri due aspetti da approfondire: l’impatto di tali leggi sulle attività dei professionisti, in particolare di coloro che svolgono attività intellettuali e creative (tra cui ricadono ad esempio programmatori, consulenti) e le ricadute sul diritto d’autore, sia per chi crea contenuti usando l’Intelligenza Artificiale che per coloro che addestrano i sistemi AI facendo ricorso a materiale potenzialmente coperto da copyright. Come potete immaginare, gli aspetti anche etici di

tali processi risultano estremamente delicati.

 

 

Riferimenti

[1] Il cosiddetto “AI Act”, Regolamento (UE) 2024/1689 del Parlamento Europeo e del Consiglio, 13 giugno 2024
https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=OJ:L_202401689

 

[2] Legge 23 settembre 2025, n. 132: “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”
https://www.gazzettaufficiale.it/eli/gu/2025/09/25/223/sg/pdf

 

 

Facebook
Twitter
LinkedIn
Francesco Saliola
Francesco Saliola

A MokaByte mi occupo dei processi legati alla gestione degli autori e della redazione degli articoli. Collateralmente, svolgo attività di consulenza e formazione nell‘ambito dell‘editoria "tradizionale" e digitale, della scrittura professionale e della comunicazione sulle diverse piattaforme.

Immagine di Francesco Saliola

Francesco Saliola

A MokaByte mi occupo dei processi legati alla gestione degli autori e della redazione degli articoli. Collateralmente, svolgo attività di consulenza e formazione nell‘ambito dell‘editoria "tradizionale" e digitale, della scrittura professionale e della comunicazione sulle diverse piattaforme.
Tutti gli articoli
Nello stesso numero
Loading...

Real Time Knowledge Injection

Accrescere l’“intelligenza” dei chatbot

Modelli LLM: Come funzionano?

III parte: Embeddings

Blast from the past

Aspetti sociali del web: tecnologie e comportamenti

Nella stessa serie
Loading...
Mokabyte

MokaByte è una rivista online nata nel 1996, dedicata alla comunità degli sviluppatori java.
La rivista tratta di vari argomenti, tra cui architetture enterprise e integrazione, metodologie di sviluppo lean/agile e aspetti sociali e culturali del web.

Imola Informatica

MokaByte è un marchio registrato da:
Imola Informatica S.P.A.
Via Selice 66/a 40026 Imola (BO)
C.F. e Iscriz. Registro imprese BO 03351570373
P.I. 00614381200
Cap. Soc. euro 100.000,00 i.v.

Privacy | Cookie Policy

Contatti

Contattaci tramite la nostra pagina contatti, oppure scrivendo a redazione@mokabyte.it

Seguici sui social

Facebook Linkedin Rss
Imola Informatica
Mokabyte