Intelligenza artificiale e Pubblica Amministrazione: cosa sta cambiando (e cosa ci aspetta)
Introduzione: una promessa da realizzare
Cosa succederebbe se la Pubblica Amministrazione fosse davvero efficiente, trasparente, accessibile?
Da decenni se ne parla, ma la realtà spesso ci restituisce l’immagine opposta: burocrazia lenta, sportelli chiusi, iter interminabili.
Ora però qualcosa sta cambiando.
E no, non si tratta solo di digitalizzazione.
Il vero salto potrebbe arrivare dall’intelligenza artificiale.
L’AI sta entrando silenziosamente anche negli uffici pubblici italiani.
Ma in che modo? E con quali garanzie?
È una rivoluzione invisibile, ma già in atto.
Questo articolo offre un primo sguardo concreto su ciò che sta accadendo e su dove potremmo essere diretti.
1. L’AI nella PA: applicazioni concrete già in corso
Negli ultimi mesi, alcuni progetti stanno dando forma a una nuova PA:
- Comune di Firenze: un assistente virtuale basato su AI risponde h24 a cittadini e turisti, indirizzandoli ai servizi più adatti (servizio info‑turistico/PA; comunicato stampa 30 nov 2021).
- INPS: tecniche di machine learning rilevano anomalie nei flussi di richiesta delle prestazioni, contribuendo a prevenire frodi e ottimizzare risorse (Relazione CIV INPS 2024).
- Ministero della Giustizia: in fase sperimentale, alcuni distretti (es. Corti d’Appello di Milano e Torino) usano sistemi semantici per catalogare automaticamente gli atti giudiziari, accelerando il reperimento dei documenti (Relazione sull’amministrazione della Giustizia 2024).
- Agenzia delle Entrate: algoritmi predittivi incrociano dati dichiarativi e comportamenti atipici per assegnare “indici di rischio” su cui interviene poi l’analisi umana (Documento illustrativo logica algoritmi, 2023).
Altri esempi degni di nota
- Comune di Bari – Chatbot “EVA”: assistente virtuale multilingua che gestisce prenotazioni, segnalazioni e FAQ 24/7.
- INAIL – Progetto ADAPT: modelli di machine learning su dataset di infortuni per prevenzione e automatizzazione delle richieste di indennizzo.
- Agenzia delle Dogane e Monopoli (ADM): motore di rischio doganale che seleziona i container da ispezionare, riducendo i controlli a basso valore.
- Polizia di Stato & Autostrade per l’Italia – Piattaforma “SafeRoad”: algoritmi che integrano sensori e telecamere per prevenire contromano e velocità eccessiva.
- ISTAT – Ricerca semantica: modelli NLP che etichettano open‑data e microdati statistici.
- Veneto “Smart Region 2.0”: piattaforma che integra AI su dati di trasporti, ambiente e welfare per supportare il policy making.
- Torino – 5T “Traffic AI”: sperimentazione 5G e algoritmi predittivi per ottimizzare i flussi semaforici urbani.
Questi non sono progetti futuristici: sono già realtà e mostrano il potenziale (e i limiti) dell’AI pubblica.
2. Efficienza, rischi e trasparenza: il triangolo dell’equilibrio
L’AI promette efficienza: meno attese, meno errori umani, decisioni più rapide.
Ma il prezzo può essere alto se non viene garantita la trasparenza degli algoritmi e la tutela dei diritti.
Principali rischi:
- Discriminazione algoritmica: se l’AI apprende da dati storici distorti, rischia di perpetuare le stesse ingiustizie.
- Mancanza di spiegabilità: un cittadino ha diritto a sapere perché la sua richiesta è stata accolta o respinta; un algoritmo opaco lo compromette.
- Sovraccarico di dati personali: molte applicazioni AI si basano su grandi quantità di dati sensibili; va rispettato il principio di minimizzazione previsto dal GDPR.
- Delega acritica alle macchine: il rischio di affidarsi automaticamente alla decisione proposta dall’algoritmo, senza valutazione critica da parte dell’operatore umano (automation bias).
- Standardizzazione ingiusta: l’AI tende a trattare casi simili nello stesso modo, ma nella PA ogni situazione può richiedere eccezioni o valutazioni personalizzate.
- Svalutazione del dialogo: l’automazione può ridurre le occasioni di confronto umano tra cittadino e amministrazione, compromettendo la funzione relazionale del servizio pubblico.
- Doppia disparità digitale: l’adozione dell’AI può accentuare il divario tra chi ha strumenti e competenze digitali e chi no, aggravando anche le disuguaglianze territoriali tra enti con risorse molto diverse.
Se preferisci un’introduzione veloce o vuoi ascoltare un commento diretto, guarda questo video pubblicato sul mio canale YouTube:
Per questo sono indispensabili DPIA, audit etici e nuove competenze trasversali all’interno degli uffici pubblici.
Ma tutto ciò non basta se non viene affiancato da un vero e proprio coordinamento umano competente e multidisciplinare.
È necessario che esistano figure capaci di comprendere le logiche degli algoritmi, interpretarne gli esiti e armonizzarne l’uso con i valori costituzionali, i diritti fondamentali e le peculiarità del servizio pubblico.
Senza questo presidio umano, anche gli strumenti più raffinati rischiano di produrre decisioni spersonalizzate, parziali o non eque.
L’AI nella PA richiede regole, ma soprattutto cultura del limite, consapevolezza del potere insito nella delega tecnologica e una direzione chiaramente assunta da chi ha responsabilità politica e amministrativa.

3. Prospettive future: scenari a 5 e 10 anni
Nel medio‑lungo periodo, l’AI potrebbe trasformare radicalmente il rapporto tra cittadino e Stato:
- PA proattiva: le amministrazioni potranno anticipare bisogni e attivare servizi sulla base di eventi di vita, come avviene in Estonia con l’iniziativa Kratt AI.
- Chatbot intelligenti e inclusivi: assistenti virtuali che comprendono il linguaggio naturale (anche dialetti e lingue straniere) e si adattano a esigenze specifiche.
- Produzione normativa assistita: modelli semantici e generativi supportano parlamenti e ministeri nel redigere leggi e regolamenti, evidenziando conflitti normativi, valutando l’impatto ex‑ante e suggerendo bozze più chiare e coerenti.
- Decisione amministrativa aumentata: l’AI propone scenari e individua anomalie, lasciando la decisione finale a un funzionario.
- Etica e partecipazione: nasceranno forme di co‑progettazione degli algoritmi pubblici, con coinvolgimento dei cittadini nella definizione di priorità e limiti.
- Gemelli digitali per la PA: simulazioni predittive dei territori per testare politiche pubbliche su mobilità, inquinamento, sanità e investimenti locali.
- Sistemi di audit algoritmico: intelligenze artificiali progettate per analizzare e monitorare il comportamento di altri sistemi AI, individuando errori sistematici, bias o incoerenze decisionali. Questi strumenti possono affiancare le amministrazioni nel rendere più trasparente, verificabile e migliorabile l’adozione degli algoritmi, svolgendo un ruolo fondamentale nel garantire la conformità ai principi di equità, responsabilità e tracciabilità.
- AI nei percorsi pubblici di formazione e orientamento: chatbot e assistenti intelligenti nei centri per l’impiego, nella formazione civica o nelle scuole per supportare l’inclusione e la personalizzazione.
Uno sguardo alla sanità: FSE 2.0 e telemedicina
Anche la sanità pubblica si sta muovendo con decisione verso l’uso dell’AI.
Dal Fascicolo Sanitario Elettronico 2.0, che probabilmente integrerà moduli di analisi predittiva per intercettare eventi clinici critici, ai progetti di telemedicina che impiegano algoritmi di triage automatico per assistere i pazienti cronici, il panorama si sta evolvendo rapidamente.
In Lombardia, ad esempio, la piattaforma di telemonitoraggio per i diabetici sfrutta modelli di machine learning per individuare pattern di rischio, mentre a livello nazionale AGENAS sta sviluppando un assistente vocale per i CUP che riduce i tempi medi di prenotazione.
Se vuoi approfondire luci e ombre di questi scenari, trovi maggiori dettagli nell’articolo dedicato al Fascicolo Sanitario Elettronico 2.0 e tieni d’occhio il blog: pubblicherò presto un ulteriore approfondimento specifico su AI e sanità.
Conclusione: tecnologia e coscienza, insieme
L’intelligenza artificiale può rappresentare una leva potente per rinnovare la Pubblica Amministrazione, ma non possiamo permetterci di subirla passivamente.
È uno strumento formidabile, e proprio per questo richiede lucidità, coraggio e responsabilità nel suo utilizzo.
Occorre un approccio integrato: tecnico, giuridico, etico.
Ma soprattutto serve una visione che vada oltre l’efficienza, per restituire centralità alla persona e costruire istituzioni che non solo funzionino meglio, ma comprendano meglio.
Perché il rischio di un’amministrazione che decide più in fretta ma ascolta di meno è reale.
E non sarà l’algoritmo a evitarlo.
Una PA davvero intelligente sarà quella capace di coniugare innovazione e coscienza, potere e misura, dati e discernimento.
Ma nulla di tutto questo è possibile senza la presenza vigile, competente e consapevole dell’essere umano.
La tecnologia può accompagnare il cambiamento, ma solo l’uomo può decidere verso quale direzione orientarlo.
E questo — prima ancora che nei codici — nasce nelle scelte di chi governa, amministra, progetta.
L’intelligenza artificiale può davvero prendere decisioni nella PA?
No, attualmente l’AI può solo supportare il processo decisionale. La decisione finale spetta sempre a un funzionario umano, anche nei casi di “automazione procedurale assistita”
È legale usare algoritmi per assegnare priorità ai cittadini o valutare richieste?
Sì, ma solo se rispettano i principi di trasparenza, non discriminazione e tracciabilità, come richiesto dal GDPR e dalla normativa italiana.
Posso sapere se un algoritmo ha deciso qualcosa che mi riguarda?
Sì. Hai diritto a ricevere informazioni sul funzionamento essenziale del sistema decisionale automatizzato e chiedere una valutazione umana nei procedimenti significativi.
Chi controlla che gli algoritmi usati nella PA siano corretti e imparziali?
Le amministrazioni devono effettuare una DPIA (valutazione di impatto sulla protezione dati) e sono soggette al controllo del Garante Privacy. Inoltre, il nuovo AI Act europeo rafforzerà questi obblighi.
🔔 Vuoi restare aggiornato ogni settimana su contenuti legali, attualità e consigli pratici?
Iscriviti gratuitamente a uno dei miei canali:
– 🟢 WhatsApp → https://avvocatonardini.it/whatsapp
– 🔵 Telegram → https://t.me/stefano_nardini
– 🔴 YouTube → https://www.youtube.com/@StefanoNardiniStudio

Autore: Avv. Stefano Nardini
Avvocato, esperto in diritto delle nuove tecnologie, privacy e sicurezza informatica. Opera da oltre 20 anni nella consulenza per imprese, professionisti ed enti pubblici su GDPR, compliance e innovazione digitale. Data Protection Officer e Privacy Officer certificato.
Si occupa inoltre di diritto civile e penale, con esperienza in contenzioso, contrattualistica, responsabilità civile, reati connessi all’ambito digitale (cybercrime, trattamento illecito dei dati) e difesa penale tradizionale.
Lavora sul fronte della prevenzione e della gestione pratica dei rischi, unendo competenza tecnica e attenzione ai principi di giustizia ed etica.
🔗 Scopri di più sull’autore
L’autore ha impiegato strumenti di intelligenza artificiale come supporto redazionale, curando personalmente la selezione, l’organizzazione e la verifica rigorosa dei contenuti.
Condividi, scegli il tuo social network!
NEWSLETTER
Ti è piaciuto questo articolo? Ricevi via email i nuovi contenuti su privacy, tecnologia e diritto digitale.
Niente spam, solo contenuti di valore.
Cancellazione immediata quando vuoi.


