
Il Rapporto Floridi — “L’Italia nell’era dell’IA” — è arrivato nel marzo 2026 con la forza di un fatto. Centoquaranta pagine, dati, analisi, raccomandazioni. Dice cose importanti: l’Italia ha due supercomputer tra i primi cinque in Europa, la prima legge nazionale sull’IA dell’Unione, un mercato che è cresciuto del 58% in un anno. Dice anche cose preoccupanti: il divario salariale del 40-50% con la Germania, che spinge i talenti fuori, le PMI ferme al 15,7% di adozione, la dipendenza strutturale dall’hardware americano.
Ma la cosa più importante che il Rapporto dice è una frase di posizionamento: l’Italia non può competere frontalmente con gli Stati Uniti e la Cina sui modelli fondazionali. Deve differenziarsi. E il terreno della differenziazione è l’IA responsabile, human-centered, applicata ai settori di eccellenza nazionale. Tra i quali: la sanità.
Quella frase descrive un vuoto. Floridi dice dove andare — non come arrivarci. Dice che l’Italia deve fare IA human-centered per la sanità — ma non descrive cosa significa in pratica, con quali architetture, con quali metodi, con quali strumenti. Perché quel lavoro non è il suo. È il nostro.
Lavoro nel Servizio Sanitario Nazionale da oltre vent’anni. Non come ingegnere — come facilitatore del cambiamento. Ho passato migliaia di ore con direttori generali, medici, infermieri, farmacisti, amministrativi. Ho visto nascere e morire decine di progetti di innovazione. Ho capito una cosa che nessun rapporto dice: il problema della sanità italiana non è tecnologico. È comportamentale.
L’ospedale ha i dati. Ha i sistemi. Ha i professionisti. Ciò che non ha è la capacità di capire perché le cose non cambiano quando dovrebbero cambiare. Perché il chirurgo non compila il sistema informativo. Perché il medico non dimette il paziente quando è dimissibile. Perché il protocollo approvato tre mesi fa è già dimenticato. Perché l’innovazione introdotta con entusiasmo regredisce in sei mesi.
La risposta non è nei dati — è nei comportamenti. E i comportamenti non si trovano nelle dashboard. Si trovano nelle ragioni per cui le persone fanno ciò che fanno — ragioni che non dichiarano, che spesso non conoscono, e che nessun sistema informativo registra.
Da questa osservazione — che non viene dalla computer science ma dal campo, dai corridoi degli ospedali, dalle sale riunioni dei direttori — è nata un’architettura.
L’idea è semplice da enunciare e complessa da realizzare: costruire agenti digitali che si comportano come le persone reali di un’organizzazione — con i loro dati, le loro abitudini, i loro bias — e farli deliberare insieme per testare i cambiamenti prima di attuarli.
Non è automazione. Non è predizione statistica. Non è un chatbot che risponde alle domande. È qualcosa di diverso — e la differenza è nel fondamento.
Il fondamento è un concetto che rovescia il digital twin. Il digital twin dell’industria è un oggetto: la replica di una turbina, di un motore, di una catena produttiva. Serve a simulare lo stress meccanico, il consumo energetico, il guasto. Funziona perché le turbine si comportano secondo le leggi della fisica. Sono prevedibili.
Le persone no.
Il soggetto digitale non è un oggetto. Non replica un corpo — rappresenta un comportamento. Il soggetto digitale di un medico non è il suo fascicolo sanitario. È il modo in cui prende decisioni: quali bias lo influenzano, quale soglia di rischio tollera, come reagisce al cambiamento, cosa lo spinge ad adottare un’innovazione e cosa lo frena. È calibrato sui dati reali — non su questionari, non su dichiarazioni, ma su ciò che il medico fa quando nessuno gli chiede cosa fa. I log dei sistemi, i pattern di prescrizione, i tempi, le scelte. Il comportamento osservato — non quello dichiarato.
Il soggetto digitale ha tre livelli. Il primo è il dato: età, ruolo, esperienza, contesto. Il secondo è il profilo comportamentale: dieci bias calibrati — l’avversione alla perdita del medico che tiene il paziente un giorno in più per paura della readmission, l’ansia digitale dell’infermiere che preferisce il monitor al software, il bias dello status quo del primario che ha sempre fatto così. Il terzo livello è la narrazione: il modo in cui la persona racconta ciò che fa, confrontato con ciò che fa davvero. Il gap tra le due cose — è la misura della distanza tra le intenzioni e i fatti. Quella distanza è il luogo dove il cambiamento si blocca.
Quando i soggetti digitali esistono — decine, centinaia, calibrati sull’organizzazione reale — li facciamo deliberare. La deliberazione avviene in un parlamento digitale: agenti con comportamenti diversi, messi nella stessa stanza virtuale a discutere un cambiamento. Tre round: esplorazione (ognuno espone la propria posizione), collisione (le posizioni si scontrano, i bias emergono), convergenza (il sistema cerca una configurazione che tenga conto di come le persone si comportano davvero).
Il risultato non è la soluzione ottimale secondo un algoritmo. È la soluzione sostenibile secondo i comportamenti. La differenza è enorme. La soluzione ottimale ignora la resistenza al cambiamento — e fallisce quando incontra le persone reali. La soluzione sostenibile incorpora la resistenza — e funziona perché tiene conto di ciò che le persone faranno, non di ciò che dovrebbero fare.
Le tecnologie esistono: i Large Language Model, le simulazioni multi-agente, il causal discovery. Ciò che è raro è metterle insieme con una comprensione profonda di come funziona un’organizzazione sanitaria. Il pezzo che manca non è computazionale — è organizzativo. È sapere che il chirurgo non compila il form perché il form ha 15 campi e lui è stanco dopo un intervento di quattro ore. È sapere che l’infermiere non alimenta il sistema perché deve scegliere tra lo schermo e il paziente. È sapere che il direttore generale vede due dimensioni del valore (clinico ed economico) e ne ignora tre (umano, sociale, organizzativo) perché nessuno gliele misura.
Questa conoscenza non si scarica da internet. Si costruisce in vent’anni di corridoi.
Il metodo è la parte operativa che traduce ciò che la simulazione scopre in cambiamento reale. Non è una consulenza — è un metodo strutturato in sette cicli progressivi, ciascuno con le proprie leve, i propri KPI, i propri Go/No-Go. Il primo ciclo scopre dove il valore si perde. Il secondo testa le soluzioni con la simulazione. Il terzo le implementa. Il quarto misura. Il quinto corregge. E così via — in cicli che si stringono intorno al risultato.
Il metodo misura il valore in cinque dimensioni: clinico, economico, umano, sociale, organizzativo. Le prime due le misurano tutti. Le ultime tre non le misura nessuno — e sono quelle che determinano se un cambiamento regge o crolla.
Il valore umano è il benessere di chi lavora nell’organizzazione. Se il burnout è alto, ogni altra ottimizzazione fallisce. Il valore sociale è l’equità dell’accesso: lo stesso servizio è uguale per tutti? Il valore organizzativo è la capacità di imparare: questa organizzazione adotta le innovazioni o le dimentica?
Un direttore generale che vede cinque dimensioni governa. Uno che ne vede due naviga al buio.
Il Rapporto Floridi descrive la necessità. Questo lavoro propone una risposta concreta.
Chiede “cluster settoriali di IA” per la sanità. Quello che abbiamo costruito è un cluster: architettura, metodo, rete di decisori, casi applicativi.
Chiede “esperienze pilota replicabili dalla pubblica amministrazione.” Il nostro modello è progettato per essere replicabile: sette cicli standardizzati, sotto soglia di affidamento diretto, Go/No-Go a ogni fase.
Chiede “IA come supporto al decisore, non come sostituto.” La simulazione informa — il direttore decide. Il soggetto digitale informa — il medico prescrive. Sempre.
Chiede “privacy-preserving AI con dati sintetici.” La domanda simulata — centinaia di pazienti e operatori digitali calibrati sui pattern reali — è esattamente dati sintetici applicati alla governance sanitaria. I dati del paziente non escono mai dal perimetro dell’ospedale. Il soggetto digitale ragiona sul pattern — non sull’identità.
Chiede “laboratori territoriali che traducano le strategie nazionali in applicazioni concrete.” Noi ne stiamo costruendo uno — con un direttore generale che ha detto: “È un laboratorio del tutto innovativo e come laboratorio si fa insieme.”
Questa idea è italiana. Non nel senso del tricolore — nel senso della provenienza. Nasce da vent’anni dentro il Servizio Sanitario Nazionale. Nasce dalla frustrazione di vedere le innovazioni introdotte e poi dimenticate. Nasce dalla scoperta che il problema non è mai la tecnologia — è sempre il comportamento. Nasce dalla tradizione italiana del fare bene le cose complesse: l’artigianato del pensiero applicato alla sanità pubblica.
Ma è un’idea di caratura globale. Perché il problema che risolve — come cambiare un’organizzazione tenendo conto di come le persone si comportano davvero — non è italiano. È universale. Ogni ospedale del mondo ha i chirurghi che non compilano i form. Ogni sistema sanitario del mondo ha i pazienti che cadono tra i silos. Ogni direttore generale del mondo vede i costi e non vede il valore.
La differenza è che in Italia — dove il sistema è pubblico, universale, e cronicamente sotto pressione — il problema è più visibile. E dove il problema è più visibile, la soluzione matura prima.
Il Rapporto Floridi dice che l’Italia è a un bivio. Può restare una consumatrice di IA americana — comprare gli strumenti degli altri e applicarli ai propri dati. Oppure può diventare una creatrice di IA applicata — costruire strumenti propri per problemi che conosce meglio di chiunque.
Ciò che abbiamo costruito è un tentativo di prendere la seconda strada. Non è un prodotto finito — è un’architettura che si costruisce nel campo, con i dati degli ospedali, con la collaborazione dei clinici, con la fatica del cambiamento reale. È un laboratorio — non un catalogo.
E forse è proprio questo il modo italiano di fare intelligenza artificiale. Non costruire il modello più grande. Costruire quello che capisce meglio. Non automatizzare — deliberare. Non sostituire il medico — dargli gli occhi che non ha. Non predire il futuro — testarlo prima che arrivi.
L’intelligenza made in Italy non è quella delle macchine. È quella delle organizzazioni. Le macchine la possono aiutare — ma solo se qualcuno sa come funzionano le organizzazioni. E quello non lo sa la macchina. Lo sa chi ci ha lavorato dentro per vent’anni.
Floridi ha disegnato la mappa. Noi stiamo costruendo la strada.
Giuseppe Orzati
















