AI ed Aziende: come guidare il cambiamento? L’ Intelligence – di livello – “usa” l’Etica e la Semantica. (dr.ssa Bellomi Daniela)
- squadsmpd

- 1 giorno fa
- Tempo di lettura: 12 min

L'Etica non è solo la branca della filosofia che studia i fondamenti razionali che permettono di assegnare un valore morale ai comportamenti umani, distinguendo tra bene e male, giusto e sbagliato ma, in quanto derivante dal greco êthos ("carattere" o "comportamento"), si concentra sulle norme che guidano le scelte, spesso usata, anche, come sinonimo di morale. C’è un’ Etica Normativa che definisce cosa si dovrebbe o non si dovrebbe fare mentre l’Etica Applicata “usa” i principi morali a situazioni specifiche. L’Etica – non meno accademica – ma applicata alla pratica è sinonimo di codice di condotta, di deontologia, di moralità e di costumi. In sintesi, l'etica non è un semplice insieme di regole, ma una riflessione costante sul modo migliore di vivere e agire. Ed è questa che è indispensabile, ora più che mai, introdurre nella rivoluzione epocale dell’arrivo e della convivenza dell’ AI nelle Aziende. La semantica è – invece - la branca della linguistica che studia il significato delle parole (semantica lessicale), delle frasi e dei testi. Analizza come le espressioni linguistiche trasmettono senso, esaminando relazioni come sinonimia, antonimia e polisemia (parole con più significati). A differenza della sintassi, che guarda alla struttura, la semantica si concentra sul contenuto. Si concentra sul significato lessicale, ovvero sul senso proprio delle parole. Ma non solo sul significato frasale, come il significato cambia in base alla combinazione delle parole. Il contesto aziendale – oggi – è fondamentale per interpretare il senso preciso di un termine o di una frase. La semantica risponde alla domanda: "Cosa significa questa espressione?”. Ed oggi, alla fine o all’inizio di una gestione, di un problema o di un’ordinaria giornata di lavoro la semantica è, come l’etica, la base dell’inizio di un buon lavoro d’analisi. Parola d’ordine: strategie operative. L’adozione dell’ AI nelle imprese richiede Governance, metriche e Formazione per evitare costi imprevedibili e resistenze interne. Il Change Management diventa, quindi, la leva che collega strategie, processi e persone, trasformando la sperimentazione in risultati misurabili e sostenibili. L’adozione dell’Intelligenza Artificiale rappresenta un’opportunità strategica per le Imprese Italiane, ma richiede un Change Management strutturato per massimizzare i benefici e minimizzare i rischi. La distanza tra spesa ed adozione è un segnale utile: indica che la tecnologia sta diventando disponibile, ma che l’organizzazione fatica a trasformarla in routine di lavoro. In molti contesti, la narrativa resta centrata sulle capacità dei modelli; nella pratica, la discriminante tende a essere il costo e, soprattutto, la sua prevedibilità quando l’ AI entra nei processi e smette di essere un esperimento. È anche per questo che, accanto agli aspetti tecnici, si sta affermando una prospettiva più operativa: portare l’ AI in azienda significa “Essere in grado di Governare Persone, Processi e Numeri con la stessa disciplina con cui si gestisce qualsiasi altra trasformazione digitale”. I rischi di una trasformazione digitale senza Governance fanno emergere punti critici, ad esempio quando l’ AI viene introdotta come iniziativa “laterale”, senza regole e responsabilità definite. Un’indagine condotta dall’Osservatorio Artificial Intelligence ha rivelato un livello di maturità ancora incoerente: mentre il 59% delle Grandi Imprese gestisce attivamente almeno un progetto AI, l’avanzamento in ambito Etico e di conformità è nettamente inferiore, con un misero 28% che dichiara l’implementazione di misure tangibili e ben il 52% che ammette una comprensione incompleta del quadro normativo, specialmente in relazione all’AI Act. In assenza di Governance, il rischio non è astratto: da un lato c’è la dimensione organizzativa: l’uso non controllato di tool non approvati porta a fenomeni di “Shadow AI”, tanto che il 17% delle Grandi Imprese segnala già divieti espliciti per strumenti non autorizzati. E dall’altro, si apre il capitolo economico, oggi più delicato per la Generative AI: l’adozione enterprise sta scivolando verso un modello pay-per-use, in cui il costo è legato a token, API e infrastruttura cloud. In questo scenario, il listino per milione di token non coincide - quasi mai - con la spesa finale, perché il consumo è determinato da come si disegna il workflow e da quante chiamate al modello vengono effettivamente eseguite in produzione. La dinamica diventa evidente nei processi aziendali reali. Un uso convenzionale “una domanda, una risposta” è diverso dall’integrazione via API dentro un flusso operativo che interpreta input, recupera informazioni, richiama tool esterni e valida l’output. Ogni passaggio genera token in input e in output, moltiplicando il costo anche quando il singolo prompt sembra leggero. I contesti lunghi amplificano ulteriormente l’effetto: se un documento o una conversazione estesa viene incluso nel contesto ad ogni chiamata, quello stesso contenuto viene conteggiato e quindi pagato ripetutamente. Il mercato Italiano dell’ AI, secondo le stime più recenti dell’Osservatorio Artificial Intelligence del Politecnico di Milano, ha messo a segno un’ulteriore accelerazione, raggiungendo un valore di 1,8 miliardi di Euro nel 2025, con un incremento del 50% rispetto all’anno precedente. Questo slancio è guidato da una maggiore consapevolezza del potenziale strategico della tecnologia, sebbene permanga il divario tra la spesa delle Grandi Aziende e l’effettiva adozione capillare nel tessuto delle PMI. Il report Skywork “The Great AI Price War: Navigating the LLM API Landscape in 2025” viene, spesso, citato per descrivere la riduzione progressiva del prezzo unitario dei token, ma lo stesso fenomeno non ha reso automaticamente più economico l’uso degli LLM in azienda. L’aumento della complessità dei casi d’uso, con agenti, tool calling e contesti estesi, ha reso il consumo meno lineare e, quindi, più difficile da prevedere. Le più recenti analisi di mercato mostrano bene la volatilità: tra Q2 2024 e Q4 2024 si osserva un taglio drastico dei costi input/output di modelli di riferimento, mentre nel passaggio a fine 2025 alcuni listini registrano una risalita, attribuita ad una maggiore capacità di calcolo e ad una componente di reasoning più intensa sull’output. Questa imprevedibilità si intreccia con un rischio di tenuta operativa. Nei rilasci successivi di modelli LLM, diversi utilizzatori hanno osservato regressioni: sommari e meno affidabili, risposte più lunghe ma più dispersive, difficoltà nel rispettare istruzioni articolate e vincoli stilistici. Sono problemi che in una demo possono non emergere, ma in produzione aumentano il carico di controllo umano e trasformano l’upgrade in un costo cumulativo fatto di test, revisione dei prompt e rafforzamento delle regole. Il risultato, quando manca Governance, è che l’AI può aggiungere variabilità invece di ridurre frizioni. Infine, c’è un rischio umano, spesso sottovalutato: le evidenze sulla AI fatigue indicano che entro il 2028 oltre il 50% delle Aziende globali la indicherà come il principale ostacolo al ROI degli investimenti in AI. Le Organizzazioni che trascurano change management e Formazione possono arrivare a un turnover più alto del 30% tra i dipendenti più giovani e remoti. In questo senso, la Governance non è soltanto un presidio di compliance, ma un meccanismo di protezione del capitale umano e della sostenibilità economica dei programmi di AI. Se la Governance risponde alla domanda “chi decide e con quali regole”, la cultura risponde alla domanda più complessa: “chi cambierà davvero modo di lavorare?”. Qui entra in gioco il change management in senso stretto, perché le resistenze raramente sono “contro la tecnologia” in sé. Le cause ricorrenti includono sovraccarico di cambiamenti, comunicazione poco chiara, formazione insufficiente, ansia sui ruoli e incertezza sui rischi. La Generative AI aggiunge, quindi, un elemento psicologico: alcuni dipendenti possono percepirla come un giudice del proprio operato o come un acceleratore che impone nuovi standard di velocità e di qualità. Di conseguenza, le best practices operative puntano a costruire fiducia attraverso esperienze concrete. Secondo il report di Gartner “5 best practices for CIOs leading AI change and adoption”, un approccio efficace combina una guida top-down con sperimentazione bottom-up, abilitando i dipendenti a testare strumenti in ambienti sandbox e programmi pilota strutturati. È in questa logica che torna utile il caso, citato da Gartner, di Vizient, che ha impostato una strategia human-centric basata su sperimentazione e co-creazione con i dipendenti. La sperimentazione protetta riduce il timore di “sbagliare” e rende più chiaro dove l’AI aiuta davvero e dove, invece, aggiunge lavoro. Una secondo leva è quella dei segnali sociali. Quando l’uso dell’AI è visibile e riconosciuto, diventa più facile trasformarlo in comportamento condiviso: leader e manager che usano apertamente gli strumenti, raccontano cosa funziona e cosa no, e premiano i team che integrano l’ AI con risultati verificabili ed inviano messaggi chiari su ciò che l’Organizzazione considera desiderabile. Il terzo snodo riguarda i manager, spesso l’anello più sotto pressione nelle trasformazioni. Dotarli di formazione mirata e di risorse pratiche li rende catalizzatori dell’adozione, perché sono loro a tradurre obiettivi astratti in priorità quotidiane. In termini di change management, significa fornire script di conversazione, momenti di check-in regolari e strumenti per gestire sperimentazione sicura senza creare confusione nei team.
Il passaggio successivo è rendere l’adozione misurabile e orientata al business: l’ AI deve diventare un insieme coerente di priorità, casi d’uso e metriche, non una somma di sperimentazioni scollegate. Le analisi più recenti confermano questa tendenza, evidenziando come l’adozione dell’ AI nelle Imprese Italiane con almeno 10 addetti sia raddoppiata, passando dall’ 8,2% del 2024 al 16,4% nel 2025. Questo indica che, superata la fase di curiosità iniziale, le organizzazioni stanno cercando di integrare l’ AI in modo strutturale, rendendola una vera e propria “infrastruttura decisionale” e non più un semplice progetto pilota. L’allineamento strategico è anche una risposta al tema costi. Se la Generative AI diventa “continua”, ogni processo che la invoca produce una spesa variabile. L’unico modo per rendere sostenibile questa variabilità è decidere con chiarezza quali casi d’uso hanno priorità, quali metriche devono migliorare e quali compromessi sono accettabili tra qualità, latenza e costo. È una disciplina che, sul mercato, si traduce spesso in un portfolio di iniziative, con criteri di selezione e responsabilità esplicite. Misurare il ROI ed i costi totali dell’ Intelligenza Artificiale obbliga ad entrare nel merito, a misurare il ROI dell’Intelligenza Artificiale e per le aziende richiede un doppio sguardo: valore generato e costo totale. Tra le grandi Imprese Italiane che hanno acquistato licenze di tool GenAI come CHATGPT o Copilot, il 39% ha riscontrato un aumento di produttività. Il dato, però, va letto insieme alla seconda parte: un ulteriore 48% non ha ancora valutato in modo quantitativo gli impatti. La misurazione deve quindi includere il TCO (Total Cost of Ownership) dei sistemi basati su LLM. Nei contesti enterprise, il costo non dipende soltanto dal numero di richieste, ma da quante chiamate API vengono eseguite per completare un singolo workflow, da quanta parte del contesto viene reinserita a ogni passaggio e dall’eventuale uso di reasoning token e chiamate iterative, più frequenti nei modelli avanzati. Questa variabile architetturale spiega perché la “guerra dei prezzi” sui token non coincida automaticamente con una riduzione dei costi reali. Un’analisi approfondita del TCO mostra che i costi più rilevanti non sono quelli immediatamente visibili (cloud, licenze), ma quelli “nascosti” che emergono nel tempo e sono legati a dati, organizzazione, Governance ed integrazione nei processi. In questa prospettiva, il vero costo dell’ AI è il tempo, che si manifesta in quattro dimensioni critiche per il business. Time-to-Value è il tempo necessario perché un’iniziativa AI generi valore misurabile. Cicli troppo lunghi erodono il vantaggio competitivo e il supporto degli stakeholder. Cost of Delay è, invece, il costo-opportunità che l’azienda paga per ogni giorno di ritardo nell’implementazione di una soluzione AI efficace, misurato in termini di mancate efficienze o minori ricavi. Rework Rate: è la quantità di tempo spesa per correggere, riaddestrare o modificare output imprecisi o inaffidabili dei modelli. Un alto tasso di rilavorazione è sintomo di una governance debole e genera costi operativi imprevedibili. Tempo decisionale è la capacità dell’AI di accelerare o, al contrario, rallentare i processi decisionali. Se i manager devono costantemente validare o mettere in discussione i risultati dell’AI, il beneficio in termini di velocità viene annullato.
Da qui discende un principio operativo: le organizzazioni che contengono la spesa non sono necessariamente quelle che scelgono il modello più economico, ma quelle che segmentano l’uso dei modelli in base al task. Attività ripetitive come classificazione, estrazione o sintesi brevi possono essere assegnate a modelli meno costosi, mentre modelli più avanzati restano riservati a passaggi ad alto valore aggiunto. In parallelo, l’orchestrazione dei flussi riduce sprechi: caching e riuso dei risultati intermedi limitano chiamate ridondanti, e la separazione netta tra test e produzione evita che esperimenti instabili impattino sulle bollette. E’ necessario definire le metriche per un’integrazione sostenibile. Ed emerge la disciplina dell’analytics engineering, il cui scopo è tradurre i dati grezzi in una logica di business condivisa, costruendo un “layer semantico” ovvero un dizionario univoco di definizioni e KPI aziendali. In molte aziende, l’ingresso di tool GenAI ready-to-use ha accelerato la familiarità, ma ha anche evidenziato quanto il valore dipenda dall’integrazione. L’ ottimizzazione dei processi e riduzione dei colli di bottiglia riflette un bisogno concreto: decisioni più rapide e processi meno rigidi. Casi d’uso pragmatici per i manager aziendali: una scelta pragmatica dei casi d’uso facilita il change management perché rende visibile il beneficio nel lavoro quotidiano. I dati evidenziano come, tra gli strumenti più impiegati, spiccano quelli finalizzati al miglioramento della produttività individuale: nel già citato report di EY, si evidenzia che il 60% dei partecipanti ha menzionato gli assistenti per la stesura di testi, seguiti dagli assistenti vocali (47%) e dai chatbot (40%). Questa diffusione spiega perché i manager si trovino a gestire non solo un progetto IT, ma un cambiamento di abitudini distribuito e spesso non uniforme. Sviluppare una roadmap operativa per l’AI in azienda. Dopo aver chiarito dove nasce il valore, il passaggio successivo riguarda la sequenza con cui quel valore viene reso ripetibile. È qui che una roadmap operativa diventa l’elemento di raccordo tra strategia, costi e adozione: stabilisce tempi, ownership e criteri di passaggio da pilota a produzione. La roadmap deve essere realistica rispetto alla maturità di dati, competenze e processi. Nelle PMI, il limite più frequente è l’immaturità nella gestione dei dati; nelle grandi imprese, l’ostacolo tende a essere la governance e la capacità di misurare impatti. In entrambi i casi, la roadmap serve a evitare che l’AI resti confinata a esperimenti o, al contrario, venga spinta in produzione senza stabilizzazione. Dalla sperimentazione alla produzione su larga scala e dalla transizione a produzione, invece, cambia natura ai problemi. Formazione e competenze nel nuovo ecosistema digitale: una roadmap, per quanto ben disegnata, resta fragile se non cambia il modo in cui le persone lavorano. La formazione diventa quindi la continuità naturale tra change management e risultati: è il meccanismo che trasforma l’AI da strumento “usato da pochi” a capacità diffusa. I dati attestano un’aumentata richiesta di alfabetizzazione, che non si limita al contesto aziendale: l’Istat ha rilevato un incremento nella percentuale di imprese che intendono investire in formazione informatica e in intelligenza artificiale rispetto al periodo precedente, con incrementi di circa +18% per l’informatica e +15% per l’AI. Allo stesso tempo, le evidenze di EY mostrano una percezione disallineata del supporto ricevuto. Se oltre la metà dei manager ritiene adeguata la formazione, solo un quinto dei dipendenti condivide la stessa valutazione. È un segnale tipico di trasformazioni top-down: l’adozione accelera nei ruoli apicali e resta più lenta dove il lavoro quotidiano cambia davvero. Ridurre questo gap è anche una misura preventiva contro AI fatigue. E’ necessario ripensare i workflow per una collaborazione uomo-macchina e la formazione non può essere trattata come un modulo una tantum, perché l’AI modifica la relazione uomo-macchina e, in alcuni casi, aumenta il lavoro umano nella fase di controllo e validazione. La conseguenza è che vanno ripensati i workflow. Se un processo introduce un assistente che genera testo o suggerisce decisioni, bisogna definire dove si colloca il controllo umano, quanto tempo richiede e chi è responsabile in caso di errore. Le indicazioni human-centric suggeriscono percorsi differenziati per profili diversi: generalisti, “evolver” ed esperti. La differenza non è solo tecnica, ma di ruolo nel cambiamento. Un generalista deve imparare a usare l’AI in modo sicuro e consapevole; un evolver può diventare punto di riferimento nel team; un esperto deve saper intervenire su prompt, orchestrazione e controllo qualità. Questo modello consente di distribuire competenze senza pretendere che tutti diventino specialisti, e rende più sostenibile l’adozione di AI in azienda. La sperimentazione protetta, già citata come best practice, trova qui un complemento: quando il learning avviene in gruppo, i segnali sociali diventano parte della formazione stessa e accelerano l’adozione attraverso l’esempio dei pari. Il passaggio dai principi ai piani operativi richiede struttura. Una formazione efficace parte dalla mappatura delle lacune e dalla definizione di obiettivi misurabili collegati alla dashboard di change management. Se l’obiettivo è aumentare l’uso frequente dell’AI, serve misurare non solo quante persone hanno completato un corso, ma se quel corso ha ridotto attrito e aumentato produttività netta. Assicurare la conformità etica e la trasparenza decisionale: è questo che accanto alla qualità, la governance deve attuare con etica e trasparenza, perché l’AI influenza decisioni e processi in modo crescente. Oltre all’organizzazione dell’AI che allinea la strategia AI agli obiettivi di business, definendo ruoli, responsabilità e un modello di governance chiaro e integrato con le strutture aziendali esistenti, alla conformità legale e normativa c’è l’Etica, la trasparenza e l’interpretabilità: assicurare che i sistemi AI siano equi, non discriminatori e comprensibili. La trasparenza su come i modelli prendono decisioni è cruciale. In azienda, la conformità si traduce in scelte pratiche: definire policy sull’uso di tool approvati per evitare Shadow AI, stabilire ruoli di responsabilità su dataset e output, e mantenere tracciabilità delle versioni dei modelli e delle modifiche ai prompt. La trasparenza decisionale non richiede necessariamente di esporre dettagli tecnici a tutta l’organizzazione, ma di chiarire dove l’AI è usata, con quale scopo e quali controlli sono previsti. Infine, una governance sostenibile include la partnership IT-HR come meccanismo strutturale coinvolge HR e L&D nella progettazione dei programmi di alfabetizzazione e dei canali di feedback rendendo più semplice intercettare resistenze e ridurre AI fatigue. Quando la cultura del controllo, della misurazione e del miglioramento continuo entra nei processi, l’AI smette di essere un costo imprevedibile che emerge a consuntivo e diventa una leva gestibile, con responsabilità e metriche chiare.
Articolo a cura di:






Commenti