MokaByte Conference
Lo scorso 15 aprile si è svolta presso le Officine Credem di Reggio Emilia la MokaByte Conference 2026, l’evento plenario organizzato in collaborazione con Imola Informatica, Agile Reloaded, Tech Reloaded, Intré, MemorIA e Thanks Design. L’occasione è stata costituita dai trent’anni dalla fondazione della nostra rivista e l’intera conferenza è stata dedicata all’intelligenza artificiale e al modo profondo in cui questa tecnologia sta plasmando il mondo contemporaneo.
I numerosi interventi proposti [1] hanno rappresentato la naturale sintesi del percorso esplorativo avviato con le Giornate della Moka, di cui potete leggere il resoconto pubblicato il mese scorso [2]. Molto del materiale presentato nel corso delle giornate tematiche e della conferenza finale è stato inviato agli iscritti alla nostra newsletter.
Accanto ad approfondimenti di natura strettamente tecnica, non è mancata una lucida riflessione sull’impatto trasformativo dell’IA sul mondo del lavoro e, in senso lato, sull’intera società. Grande interesse hanno ricevuto temi quali la sicurezza e la riservatezza dei dati o la “sovranità” su quello che i modelli LLM più importanti possono fare: in fin dei conti essi sono in massima parte un servizio erogato da grandi gruppi privati, peraltro non europei, che potrebbe, in certe situazioni estreme, anche venire a mancare o essere distribuito con limitazioni di accesso o grande aumento dei prezzi.
Dalla sperimentazione alla prassi: la generazione del codice
Stiamo assistendo a un’ascesa straordinaria delle capacità dei Large Language Models (LLM) e a un’adozione sempre più pervasiva di questi strumenti in ogni settore della produzione e del sapere. Sebbene definire l’epoca attuale come “l’era degli agenti AI” possa apparire un’iperbole, tale espressione rende perfettamente l’idea della portata del fenomeno.
L’impatto su pratiche consolidate, prima fra tutte la scrittura del codice per lo sviluppo software, è ormai innegabile. Nel giro di un solo anno, la generazione di codice tramite intelligenza artificiale è passata dall’essere un esperimento promettente a una prassi operativa standard. Le grandi aziende tecnologiche, infatti, dichiarano apertamente che una porzione significativa del codice alla base delle loro applicazioni è ormai prodotta da sistemi IA, operanti ovviamente sotto la supervisione e il supporto fondamentale di professionisti di alto livello.
Oltre l’entusiasmo: luci e ombre della rivoluzione tecnologica
In un panorama tecnologico tradizionalmente incline ad accogliere con entusiasmo ogni forma di innovazione, questi cambiamenti epocali vengono spesso accettati in modo acritico. Tuttavia, un merito della MokaByte Conference è stato proprio quello di non limitarsi alla sola celebrazione tecnica.
I relatori hanno affrontato tematiche complesse, accendendo i riflettori anche sugli aspetti meno evidenti e potenzialmente critici. Lo sfruttamento intensivo dell’intelligenza artificiale in ambito lavorativo, se non governato con consapevolezza, rischia infatti di generare distorsioni e impatti negativi che si ripercuotono direttamente sulle condizioni dei lavoratori e sul tessuto della nostra società.
Proprio partendo da questo ultimo punto, vogliamo dare con questo articolo continuità al dibattito e parlare di alcuni impatti sul mondo del lavoro — e non solo — che appaiono particolarmente interessanti e che si stanno delineando con chiarezza proprio in queste ultime settimane.
Tagli al personale per finanziare l’intelligenza artificiale
Partiamo da quello che è considerato, anche presso i non specialisti, uno dei grandi problemi posti dall’affermazione della AI generativa: i posti di lavoro di molte persone sono a rischio. In particolare, quelli di coloro che svolgono attività “di concetto” ma di tipo ripetitivo e a basso livello creativo; e anche su questo ci sarebbe da discutere.
È un dato di fatto, comunque, che grandi aziende tecnologiche stanno affrontando una fase di profonda ristrutturazione. Microsoft e Meta hanno recentemente annunciato piani per ridurre la propria forza lavoro di più di 16000 unità complessive. La motivazione principale alla base di queste drastiche manovre è la necessità di ottimizzare i costi per far fronte alle spese enormi richieste dallo sviluppo dei sistemi di intelligenza artificiale e dalla costruzione dei data center necessari per farli funzionare [3].
Due strategie con lo stesso obiettivo
Va detto che l’approccio di Microsoft e di Meta è comunque piuttosto differente, pur con il medesimo obiettivo.
- Microsoft ha optato per un piano di uscite volontarie rivolto ai dipendenti storici negli Stati Uniti. Chi ha già una certa età anagrafica e un cospicuo numero di anni di servizio viene compensato con una buonuscita affinché lasci il suo impiego in MS. Si conta in questo modo di ridurre gradualmente di circa 9000 unità il personale dipendente USA, che è attualmente di circa 125000 persone. A motivo di tali riduzioni ci sarebbero anche gli investimenti colossali fatti nell’AI: circa 120 miliardi di dollari spesi per “recuperare” terreno su Google e OpenAi, con uno sforamento di ca. il 20% sul budget inizialmente stabilito.
- Meta adotterà un approccio più drastico, licenziando circa 8000 persone (il 10% della forza lavoro) e, soprattutto, non assumendo le circa 6000 persone per cui inizialmente erano state aperte posizioni. Questa scelta è stata esplicitamente collegata alle nuove dinamiche di sviluppo: progetti che un tempo richiedevano grandi team possono ora essere gestiti da singole figure di alto profilo che fanno lavorare agenti AI.
Le conseguenze dell’automazione
Microsoft dichiara che circa un terzo del proprio codice è ormai generato dall’AI, mentre Google si spinge a dichiarare una quota dei tre quarti. Resta chiaramente da capire se la riduzione del personale sia totalmente connessa all’affermazione dell’Intelligenza Artificiale — Amazon ha tagliato 30000 posti di lavoro lo scorso febbraio annunciando contestualmente investimenti nell’AI per 200 miliardi — o se sia in gran parte legata a un sovradimensionamento disordinato avvenuto negli scorsi anni.
Ma resta il fatto che la sproporzione tra riduzione delle persone impiegate e investimenti infrastrutturali inizia a sollevare fondate preoccupazioni sul rischio di una bolla tecnologica pronta a scoppiare. Del resto, in maniera molto “keynesiana”, in molti si chiedono: se tante persone perderanno il lavoro e il reddito che ne consegue, con quali soldi potranno acquistare i prodotti e i servizi realizzati con l’AI?
La deriva del “tokenmaxxing”
Visto dunque che gli investimenti in AI all’interno delle grandi aziende è sempre più cospicuo, vediamo anche di capire cosa si fa con questi investimenti. E, a uno sguardo attento, emergono dinamiche paradossali.
In alcune aziende, infatti, si è dato il via a una sorta di competizione sul consumo di “token”. Questa pratica, ribattezzata “tokenmaxxing” o “Claudeonomics”, in riferimento ai modelli Anthropic, trasforma il consumo di unità di dati processate dall’AI in un indicatore di produttività e competenza tecnologica, spingendo gli sviluppatori a massimizzare artificialmente il loro utilizzo per scalare le classifiche aziendali [4].
La “leaderboard” di Meta
In Meta, era stata creata una “token leaderboard” interna che aggregava i dati di oltre 85000 dipendenti, premiando chi consumava più token poiché significava, in teoria, un maggio uso degli strumenti AI e, probabilmente, una maggiore produttività.
In realtà, molti sviluppatori lasciavano operare agenti interni in background che bruciavano enormi quantità di token senza produrre risultati utili. Sono state sviluppate enormi quantità di codice “spazzatura” solo per aumentare il numero di token utilizzati, e non per soddisfare le necessità del prodotto. Alla fine, dopo un po’ di tempo, in Meta, la classifica del “tokenmaxxing” è stata rimossa.
In realtà, forse in tutto questo c’era una strategia e non solo un malinteso “indicatore di prestazione”: secondo alcuni analisti, il meccanismo di premialità per chi consumava più token sarebbe stato un vero e proprio esperimento per generare enormi quantità di dati di tracciamento necessari per addestrare i futuri modelli di programmazione dell’azienda.
Notiamo però un fatto importante: l’avvento dell’AI sembra aver fatto dimenticare uno dei principi fondamentali dell’approccio Lean/Agile che per gli scorsi vent’anni era stato fondamentale negli stessi ambienti in cui adesso si è in piena bolla AI: la riduzione dello spreco. Dove sono finite tutte le lezioni sul waste e sul muda, mura, muri?
Stessa ansia da prestazione anche in Microsoft e Salesforce
Anche Microsoft ha implementato una classifica interna dallo scorso gennaio per promuovere l’uso dei Large Language Models. Uno sviluppatore neoassunto ha confessato di praticare il tokenmaxxing esclusivamente per non apparire carente nell’uso dell’AI e per proteggere la propria sicurezza lavorativa in un ambiente che premia l’essere “AI-native”.
In Salesforce, l’incentivo al consumo è stato persino formalizzato attraverso widget e strumenti web che monitorano non solo i consumi dei colleghi, ma fissano dei “minimi attesi” di spesa: alcuni sviluppatori hanno cominciato a consumare token per progetti fittizi pur di non essere segnalati come utenti “sotto la media”.
Esempi più virtuosi
Non tutto il “tokenmaxxing” vien per nuocere… Ci sono esempi in cui tale pratica è stata analizzata e corretta, traendono utili indicazioni. Shopify ha rimosso totalmente la componente competitiva e ha introdotto un’analisi qualitativa concentrandosi sul rapporto tra spesa in token e coerenza di risultato.
Comunque la si affronti, l’incentivazione del tokenmaxxing appare irrazionale per la maggior parte delle aziende. Non solo aumenta vertiginosamente le spese per l’AI senza generare valore reale, ma paradossalmente rallenta il lavoro e incoraggia attività inutili. È una riedizione del vecchio sistema di valutazione delle prestazioni basato sul numero di righe di codice scritte da un programmatore…
Il paradosso dei costi: quando l’IA supera gli stipendi
Eppure, in questo scenario, si stanno delineando anche situazioni contradditorie e molto interessanti. La progressiva sostituzione della forza lavoro con strumenti di intelligenza artificiale sta generando una dinamica economica imprevista: in diverse realtà tecnologiche, la spesa per i token necessari a far funzionare i modelli sta superando il costo degli stipendi dei dipendenti. Se l’IA promette un teorico incremento della produttività, nella pratica l’impiego di flussi di lavoro complessi — come la generazione di codice, l’autocorrezione e i test iterativi — comporta un consumo di risorse di calcolo nettamente superiore a operazioni base come la sintesi testuale.
Questa assenza di controllo sulle spese ha già mietuto le prime “vittime” in termini di pianificazione aziendale. Nel team di ricerca applicata di Nvidia, i costi operativi per l’esecuzione dei modelli si sono spinti ben oltre le normali spese per il personale. Un caso ancora più emblematico è quello di Uber, che ha visto volatilizzarsi il budget IT destinato agli strumenti IA per tutto il 2026 già nei primi mesi dell’anno. La causa principale è il tokenmaxxing, di cui abbiamo appena parlato, ma non solo: a questo si sommano i crescenti investimenti infrastrutturali (server cloud, piattaforme di orchestrazione e GPU), che stanno portando la spesa IT globale a livelli record nel 2026.
Per scongiurare il collasso dei budget dipartimentali, i responsabili tecnologici sono ora costretti a correre ai ripari. Si sta diffondendo l’introduzione di tetti di spesa, monitoraggi dei consumi in tempo reale e restrizioni dei permessi, con il chiaro mandato di dimostrare un ritorno sull’investimento (ROI) tangibile prima di autorizzare nuovi fondi per gli agenti IA.
Qualche esempio recente
Diverse testate finanziarie hanno confermato negli ultimi giorni l’esistenza di un promemoria interno del CTO di Uber che ha comunicato ufficialmente che l’azienda ha bruciato l’intero budget IA del 2026 in soli quattro mesi a causa dell’utilizzo intensivo di strumenti come Claude Code [5].
Manager di alto livello di ServiceNow hanno confermato che che il costo dei server e dell’IA sta esplodendo per tutte le tech companies [6]. Va inoltre notato come alcune startup stiano iniziando a ridurre la quantità dei costosi abbonamenti ai servizi IA — passati ormai a piani tariffari basati sull’effettivo consumo — per tornare ad assumere sviluppatori di livello intermedio, che al momento risultano paradossalmente più economici.
Il consumo energetico e l’impatto ambientale
L’entusiasmo per le straordinarie capacità dei Large Language Models tende spesso a mettere in ombra un dato meno immateriale della “nuvola” su cui viaggiano: l’impronta ecologica. L’intelligenza artificiale è, per sua natura, un’attività ad altissima intensità energetica che richiede risorse fisiche imponenti per l’alimentazione di addestramento e inferenza dei modelli e per e il raffreddamento delle infrastrutture su cui essi girano [7]. Sono aspetti che non si “vedono” immediatamente — e che in certi casi vengono proprio tenuti nascosti dalle tech companies che hanno creato i vari LLM — ma che invece hanno un impatto enorme sul consumo energetico globale.
Addestramento (training)
Per istruire modelli con miliardi di parametri, i data center devono far girare migliaia di GPU per settimane o mesi. Uno studio dell’università del Massachusetts ha stimato che l’addestramento di un singolo modello linguistico di grandi dimensioni può emettere una quantità di CO2 equivalente a quella prodotta da cinque automobili durante il loro intero ciclo di vita, incluso il processo di costruzione dell’auto.
Inferenza
Questo è forse il punto meno appariscente, ma estremamente impattante. Ogni volta che un utente pone una domanda a un chatbot o genera un’immagine, viene consumata energia. Su scala globale, con milioni di richieste al secondo, il consumo cumulativo supera rapidamente quello della fase di addestramento.
Raffreddamento
I server generano calore estremo a cui si risponde o con sistemi di condizionamento — che aumentano ancor più il consumo di energia elettrica — o con raffreddamento tramite torri evaporative — in stile centrale nucleare — che consuma milioni di litri d’acqua dolce, una risorsa sempre più scarsa e preziosa.
Strategie per una sostenibilità possibile
L’impatto ambientale dei sistemi di AI è troppo spesso sottovalutato o ignorato; rendere l’intelligenza artificiale più sostenibile diventa anche una necessità operativa per le stesse aziende tecnologiche. Per quanto lontane dal risolvere del tutto la questione energetica, alcune strategie oggi perseguibili si muovono su diversi livelli:
- Efficienza algoritmica: lo sviluppo di modelli più piccoli e specializzati (come i cosiddetti Small Language Models) o l’uso di tecniche come la quantizzazione e il pruning permettono di ottenere prestazioni elevate riducendo drasticamente il numero di calcoli necessari.
- Ottimizzazione dell’hardware: il passaggio da GPU generiche a chip specificamente progettati per l’IA (come i TPU o gli NPU) consente una gestione energetica molto più efficiente per unità di calcolo.
- Localizzazione e alimentazione dei data center: la costruzione di infrastrutture in regioni con climi freddi (per ridurre la necessità di raffreddamento attivo) e l’alimentazione diretta tramite fonti rinnovabili sono passi che potrebbero ridurre i costi energetici.
Si tratta chiaramente di indicazioni generiche, ma il problema non lo è affatto e occorrerà vedere in che modo i gruppi industriali tecnologici che governano il mercato dell’AI intenderanno affrontarlo.
Conclusioni
L’Inteligenza Artificiale rappresenta una delle “rivoluzioni” tecnologiche a maggior impatto mai conosciute dall’umanità. Accanto a un ventaglio di potenzialità che essa apre alle scelte industriali e personali, si profilano anche una serie di problematiche: effetti sull’occupazione, influenza sulle opinioni pubbliche e i sistemi di governo, impatto ambientale.
Siamo nell’“era degli agenti AI”: ma fin quando durerà e in che direzione evolverà?
Riferimenti
[1] MokaByte Conference
https://www.mokaconference.it
[2] Francesco Saliola, Trent’anni di MokaByte. Le giornate della Moka. MokaByte 326, aprile 2026
https://mokabyte.it/2026/04/13/giornatemoka/
[3] Microsoft e Meta vogliono liberarsi di migliaia di dipendenti. Il Post, 24 aprile 2026
https://tinyurl.com/2yz933yg
[4] Gergely Orosz, The Pulse: ‘Tokenmaxxing’ as a weird new trend. The Pragmatic Engineer, 23 aprile 2026
https://tinyurl.com/29o8fcvg
[5] Jakob Steinschaden, Tokenmaxxing: Is AI Token Consumption a Productivity Metric or Vanity Trap?. Trending Topics, 23 aprile 2026
https://tinyurl.com/23zsjlj7
[6] Aaron Mok, ServiceNow’s Customer Chief Warns ‘Tokenmaxxing’ Is an A.I. Hype Cycle. Observer
https://tinyurl.com/2c975kbj
[7] Kate Crawford, Generative AI’s environmental costs are soaring — and mostly secret. Nature, 20 febbraio 2024
https://www.nature.com/articles/d41586-024-00478-x
[8] E. Strubell – A. Ganesh – A. McCallum, Energy and Policy Considerations for Modern Deep Learning Research.
https://ojs.aaai.org/index.php/AAAI/article/view/7123/6977