
Alla Leopolda si tiene la terza e conclusiva tappa del Change Camp, il percorso in tre tappe dedicato alle direzioni strategiche della sanità italiana. Torino prima, Roma poi, ora Firenze. Ma non è un semplice roadshow che replica lo stesso format in città diverse. È un cammino che ha costruito qualcosa mentre procedeva, una riflessione collettiva che si è fatta sempre più precisa: quale intelligenza serve davvero per cambiare il sistema sanitario?
La domanda interroga non solo l’intelligenza artificiale, ma anche quella umana, quella manageriale. Perché il problema non è solo quale tecnologia adottare, ma quale tipo di pensiero strategico serve per governare sistemi complessi. Quale intelligenza manageriale è capace di prendere decisioni in contesti di incertezza radicale? Quale intelligenza umana sa riconoscere quando affidarsi alla macchina e quando no? La domanda sembra banale nell’anno in cui tutti parlano di intelligenza artificiale come panacea universale. Ma il Change Camp ha preso una direzione diversa, più scomoda. Non ha celebrato l’IA come soluzione, l’ha interrogata come problema. E ha interrogato con la stessa durezza anche l’intelligenza umana che dovrebbe governarla.
Le direzioni sanitarie che hanno partecipato a Torino e Roma non hanno assistito a presentazioni di vendor tecnologici o demo di prodotti. Hanno lavorato in sessioni co-creative per immaginare scenari applicativi concreti nelle proprie aziende. Non “cosa può fare l’IA in sanità” in astratto, ma “cosa possiamo fare noi, qui, adesso, con i vincoli che abbiamo”. Gli scenari emersi sono stati istruttivi proprio perché disomogenei, contraddittori, a volte ingenui. Hanno mostrato dove sta davvero la domanda, non quella indotta dal marketing tecnologico ma quella autentica dei professionisti sotto pressione.
E la domanda vera, quella che è riemersa in entrambe le tappe, non esclude l’automazione di processi o l’analisi predittiva di dati clinici. Ma aggiunge una dimensione: come far dialogare tutto questo con le persone, le organizzazioni, i processi reali? Come far sì che l’IA diagnostica di un vendor collabori con l’intuito clinico di un medico? Come connettere i sistemi tecnologici con le reti umane? Riguarda, in una parola, l’intelligenza collaborativa.
Qui il Change Camp ha fatto la sua scommessa più coraggiosa: proporre che esiste un’intelligenza emergente, italiana, costruita dal basso, che non sostituisce quella tecnologica ma la fa funzionare davvero. Un’intelligenza inclusiva che dialoga con tutto: con l’IA diagnostica dei vendor, con gli algoritmi predittivi, con i professionisti sanitari, con i processi organizzativi, con i pazienti, con le persone digitali come i selftwin e con quelle reali. È un layer di dialogo che fa parlare tra loro mondi che altrimenti resterebbero isolati.
Questa intelligenza non nega il valore della tecnologia avanzata. Lo moltiplica. Un sistema di imaging diagnostico basato su IA funziona meglio quando può dialogare con il radiologo, con il sistema informativo ospedaliero, con la direzione sanitaria, con il paziente. L’intelligenza dialogica è quella che rende possibile questa conversazione multipla, che traduce linguaggi diversi, che connette invece di separare.
La tappa fiorentina del Change Camp ha un compito diverso dalle prime due. Non deve esplorare, deve riassumere. Deve mettere a sistema quello che è emerso, trasformarlo in linee operative, costruire una piattaforma permanente. Perché l’annuncio più significativo riguarda il 2026: il Change Camp vuole diventare campus permanente.
Non più tre eventi annuali ma un continuum di stimoli, progetti pilota, momenti co-creativi in presenza e online. Una comunità di pratica che lavora tutto l’anno su scenari concreti di cambiamento. E lo strumento per tenere insieme questa comunità sarà proprio l’intelligenza dialogica e collaborativa, quella che permette di conversare con la memoria collettiva del percorso, di ritrovare connessioni, di far emergere pattern.
Il format permanente risponde a una necessità strutturale. I tempi di mandato delle direzioni sanitarie sono troppo brevi per strategie di lungo periodo. Un direttore generale resta in carica tre, forse quattro anni. Se ogni volta si riparte da zero, se ogni cambio ai vertici azzera la memoria organizzativa, il sistema è condannato all’eterno presente. Un campus permanente costruisce invece una memoria condivisa che sopravvive ai singoli mandati.
L’intelligenza protagonista del campus non è quella che sceglie tra umano e macchina, tra analogico e digitale. È quella che fa dialogare tutto. Un algoritmo di machine learning per la diagnostica precoce, un medico esperto, un’organizzazione sanitaria, un paziente che vuole capire, un selftwin che conserva memoria: l’intelligenza dialogica e collaborativa li mette in conversazione. Non li sostituisce, non li gerarchizza, li connette.
Ma fa qualcosa di più. Fa da guardiano. Gestisce i rischi che nascono quando tecnologie potenti incontrano sistemi complessi. Evita le derive: quella dell’algoritmo che perpetua bias nascosti nei dati storici, quella dell’organizzazione che delega alla macchina decisioni che richiederebbero giudizio umano, quella del professionista che si affida ciecamente al sistema perché è più comodo che ragionare, perché si fida: ha sempre detto il giusto. Ma se questa volta sbaglia?
I bias non sono solo quelli algoritmici. Ci sono quelli dell’abitudine: “si è sempre fatto così”. Quelli della delega continua: “lo dice il sistema”. Quelli della pigrizia cognitiva mascherata da efficienza. L’intelligenza dialogica intercetta questi automatismi, li mette in discussione, forza il confronto. Non sostituisce il giudizio umano con quello della macchina, ma impedisce a entrambi di funzionare su pilota automatico.
C’è spazio per tutto ciò che è buono. L’IA dei vendor che ottimizza i flussi operatori dialoga con i professionisti che conoscono i dettagli della loro realtà. I sistemi predittivi conversano con l’esperienza clinica. Le tecnologie digitali si interfacciano con i processi organizzativi reali. I pubblici diversi – manager, clinici, pazienti, cittadini – trovano linguaggi comuni. Le persone digitali come i selftwin amplificano le capacità di quelle reali senza sostituirle. E attraverso tutto questo, l’intelligenza dialogica vigila, segnala, previene.
Questa distinzione è fondamentale. Non si tratta di scegliere quale intelligenza, ma di orchestrare tutte le intelligenze disponibili. Il valore non sta nella tecnologia in sé, sta nella capacità di farla dialogare con tutto il resto. E questo dialogo non avviene automaticamente: va progettato, facilitato, coltivato.
Il Change Camp alla Leopolda chiude un cerchio e ne apre un altro. Chiude il percorso esplorativo delle tre tappe. Apre la sfida del campus permanente. Ma soprattutto pone una questione che il sistema sanitario italiano non può più evitare: costruire l’intelligenza dialogica che fa funzionare insieme tutte le altre intelligenze.
Non si tratta di rifiutare la tecnologia avanzata o di difendere corporativismi professionali. Si tratta di riconoscere che l’IA diagnostica è preziosa ma funziona meglio quando dialoga con chi la usa. Che i sistemi dei vendor sono potenti ma danno risultati solo se integrati nei processi reali. Che le organizzazioni sanitarie hanno bisogno di tecnologia ma anche di quella capacità umana di tradurre, mediare, connettere che nessun algoritmo può replicare.
Il Campus permanente sarà il banco di prova di questa intuizione. Se funzionerà, avremo dimostrato che si può fare innovazione tecnologica in modo integrato, facendo dialogare tutto ciò che è buono senza esclusioni ideologiche. Se non funzionerà, avremo comunque provato a costruire ponti invece di innalzare muri tra mondi che hanno bisogno gli uni degli altri.
Change Camp – Terza tappa conclusiva
Forum Leopolda Salute 2025
Firenze, Stazione Leopolda | 22 ottobre, 9:30-12:45
Informazioni: forumdellaleopolda.it






















