Intelligenza artificiale: l’Italia sceglie di non scegliere (per ora)
Il 10 ottobre 2025 è entrata in vigore la legge 23 settembre 2025, n. 132 sull’intelligenza artificiale.
L’Italia si presenta come il primo Paese dell’Unione Europea a dotarsi di una disciplina nazionale organica che affianca l’AI Act europeo.
Un primato che suona bene, ma che alla prova del testo rivela una scelta precisa: rimandare.
Le decisioni difficili – quelle che comportano scelte politiche nette su responsabilità, tutele e limiti – sono affidate ai decreti attuativi del Governo.
Dodici mesi di tempo per definire tutto ciò che questa legge non dice.
Non è una critica alla tecnica legislativa, è un’osservazione di metodo: quando il Parlamento delega al Governo la definizione di questioni cruciali come la responsabilità civile per i danni da algoritmo, o i criteri per punire chi omette misure di sicurezza, sta rinunciando a prendere posizione.
La legge 132/2025 è una cornice, stabilisce principi (IA antropocentrica, trasparente, rispettosa dei diritti fondamentali), distribuisce competenze tra autorità, fissa alcune norme immediate, ma sui nodi spinosi, quelli dove si incrociano interessi economici forti e opzioni politiche contrapposte, rinvia.
In questo articolo vediamo dove e cosa sarebbe auspicabile che i decreti attuativi facessero.
La legge italiana non sostituisce l’AI Act europeo: lo affianca, occupando gli spazi lasciati agli Stati membri, se vuoi capire come funziona il Regolamento europeo e quali obblighi introduce già oggi, guarda questo video:
Ora vediamo cosa la legge italiana rinvia al Governo.
Le tre deleghe decisive
1. Responsabilità civile: chi paga quando l’algoritmo sbaglia?
Scenario possibile: un sistema di IA utilizzato in ambito sanitario suggerisce una diagnosi errata.
Il medico, fidandosi del supporto tecnologico, segue il suggerimento.
Il paziente subisce un danno.
Chi risponde civilmente? Il medico che ha preso la decisione finale? L’ospedale che ha acquistato il sistema? Il fornitore della piattaforma? L’azienda che ha addestrato il modello?
La legge non lo dice, l’articolo 24, comma 5, lettera d) delega al Governo la previsione di “strumenti di tutela del danneggiato” anche attraverso “una specifica regolamentazione dei criteri di ripartizione dell’onere della prova”, tradotto: sarà il decreto a stabilire chi deve provare cosa, e quindi – indirettamente – chi si assumerà il rischio economico.
Quello che servirebbe: una disciplina che non scarichi tutto il rischio sull’utilizzatore finale (medico, datore di lavoro, funzionario pubblico), altrimenti si paralizza l’adozione di sistemi potenzialmente utili, ma nemmeno una responsabilità così stringente per i fornitori da rendere antieconomico sviluppare IA in Italia.
L’equilibrio possibile sta in una presunzione di responsabilità graduata per rischio: più il sistema è classificato ad alto rischio dall’AI Act, più chi lo immette sul mercato deve rispondere dei danni, con inversione dell’onere della prova.
L’utilizzatore risponde solo se ha disatteso istruzioni d’uso o utilizzato il sistema oltre i limiti dichiarati.
È tecnicamente complesso, ma è l’unico modo per creare incentivi corretti: sicurezza per chi produce, tutela per chi subisce il danno.
2. Addestramento degli algoritmi: il nodo dei dati
L’articolo 16 delega al Governo la definizione di una “disciplina organica relativa all’utilizzo di dati, algoritmi e metodi matematici per l’addestramento di sistemi di intelligenza artificiale”.
Questa è la questione più calda, dove si scontrano tre interessi: le aziende tecnologiche che hanno bisogno di accesso massiccio a dataset di qualità; gli autori e i titolari di diritti d’autore che non vogliono essere espropriati quando le loro opere vengono utilizzate per addestrare modelli generativi; i cittadini che pretendono che i loro dati personali non vengano risucchiati indiscriminatamente in sistemi di machine learning.
La legge introduce un nuovo articolo nella disciplina del diritto d’autore (art. 70-septies L. 633/1941) che subordina l’estrazione di testo e dati per addestrare IA al rispetto delle norme su riproduzione e citazione, ma è una formula vaga, non risolve la domanda di fondo: cosa succede quando un modello viene addestrato su milioni di opere protette scaricate dalla rete? È lecito? Serve una licenza? Si applica un’eccezione per ricerca scientifica o text and data mining?
C’è un problema che rende tutto più complesso: questa norma arriva quando i grandi modelli sono già stati addestrati, GPT-4, Claude, Gemini, Stable Diffusion – tutti addestrati tra il 2021 e il 2023 su dataset massicci raccolti dalla rete.
Quando i decreti attuativi entreranno in vigore (2026, se va bene), l’addestramento dei modelli dominanti sarà storia.
La norma potrà regolare i futuri riaddestamenti e i modelli specializzati italiani, ma per i dataset già utilizzati?
Difficile immaginare un’efficacia retroattiva, risultato: i modelli che già operano continueranno a farlo, e nessuno sa davvero su quali dati sono stati costruiti.
Quello che servirebbe: una disciplina chiara che distingua tra addestramento per ricerca (con eccezioni ampie, sul modello del GDPR per il trattamento dati a fini scientifici) e addestramento per fini commerciali (dove serve o una licenza, o un meccanismo di opt-out efficace per i titolari di diritti, o una remunerazione equa tramite società di gestione collettiva).
Il rischio concreto è che il decreto navighi a vista, cercando una mediazione politica che accontenti tutti e non risolva nulla oppure, peggio, che copi acriticamente soluzioni di altri ordinamenti senza adattarle al contesto italiano, dove la tutela del diritto d’autore ha tradizioni e sensibilità diverse.

3. Illeciti penali: omissioni pericolose e uso nelle indagini
L’articolo 24, comma 5, lettera b) delega al Governo l’introduzione di “autonome fattispecie di reato, punite a titolo di dolo o di colpa, incentrate sull’omessa adozione o sull’omesso adeguamento di misure di sicurezza per la produzione, la messa in circolazione e l’utilizzo professionale di sistemi di intelligenza artificiale, quando da tali omissioni deriva pericolo concreto per la vita o l’incolumità pubblica o individuale o per la sicurezza dello Stato”.
È una delega necessaria, ma scivolosa, il punto critico è stabilire cosa si intende per “pericolo concreto” in un contesto tecnologico in evoluzione continua, e soprattutto individuare il soggetto responsabile in una catena produttiva che coinvolge sviluppatori, fornitori, integratori e utilizzatori finali.
Quello che servirebbe: un reato costruito sul modello della responsabilità per omessa vigilanza (ex art. 40 cpv. c.p.), con posizioni di garanzia chiare: chi sviluppa risponde delle misure di sicurezza in fase di progettazione e addestramento; chi immette sul mercato risponde dell’adeguatezza delle istruzioni d’uso e della documentazione tecnica; chi utilizza risponde del rispetto delle limitazioni d’uso dichiarate.
Servirebbe anche una clausola di non punibilità per l’errore scusabile: se hai seguito le best practice del settore e gli standard tecnici disponibili al momento, e nonostante questo si è verificato un pericolo imprevedibile, non puoi essere punito, altrimenti si paralizza l’innovazione per paura penale.
La stessa delega include anche l’uso dell’IA nelle indagini: qui il rischio è opposto: troppa libertà per sistemi predittivi o riconoscimento facciale erode garanzie fondamentali.
Servono limiti chiari: autorizzazione giudiziaria obbligatoria, divieto di decisioni automatiche, tracciabilità degli algoritmi per il controllo difensivo.
Senza questi paletti, la tecnologia rischia di diventare uno strumento di efficienza investigativa che sacrifica il giusto processo.

Quello che la legge decide subito (ed è il minimo indispensabile)
Non tutto è delegato, la legge introduce immediatamente alcune norme operative.
Deepfake: il nuovo articolo 612-quater del codice penale punisce con reclusione da uno a cinque anni chi diffonde immagini, video o voci falsificati con IA, idonei a ingannare, cagionando danno ingiusto alla persona rappresentata. È una norma necessaria, anche se applicativamente complessa (cosa significa “idonei a indurre in inganno”? Un deepfake satirico palesemente riconoscibile come tale rientra?). Ma almeno c’è, subito.
Aggravanti penali: l’uso di IA diventa circostanza aggravante generica (art. 61, n. 11-decies c.p.) quando costituisce mezzo insidioso, ostacola la difesa o aggrava le conseguenze del reato, si aggiungono aggravanti specifiche per attentati ai diritti politici, aggiotaggio e manipolazione del mercato commessi con IA.
Sono norme di deterrenza, utili ma non risolutive.
Diritto d’autore: la modifica all’articolo 1 della legge 633/1941 chiarisce che sono tutelate le “opere dell’ingegno umano”, anche create con ausilio di IA, purché frutto del lavoro intellettuale dell’autore.
Principio chiaro: l’IA è strumento, non autore, ma la linea di confine tra “ausilio” e “generazione automatica” resterà zona grigia, da definire caso per caso.
Regole settoriali: sanità, lavoro, professioni intellettuali, pubblica amministrazione, giustizia – la legge fissa un principio costante: l’IA è strumento di supporto, mai sostituto della decisione umana.
Obbligo di informare gli interessati sull’uso di IA.
Divieto di discriminazioni automatizzate.
Sono enunciazioni condivisibili, ma la loro concretezza dipenderà da regolamenti attuativi e linee guida delle autorità competenti (AgID e ACN, designate come autorità nazionali).
L’auspicio (e il rischio)
La legge 132/2025 è una scommessa.
Tra dodici mesi sapremo se i decreti attuativi avranno trasformato questa cornice in un sistema di regole operative chiare, equilibrate, applicabili, o se avremo l’ennesima stratificazione normativa fatta di principi vaghi e adempimenti burocratici che non risolvono i problemi reali.
L’auspicio è che il Governo usi la delega con coraggio intellettuale: ascoltando tutti gli interessi in campo (aziende, lavoratori, consumatori, autorità), ma poi scegliendo.
Scegliendo da che parte stare quando gli interessi sono inconciliabili e scrivendo decreti brevi, precisi, comprensibili anche ai non specialisti, perché l’IA impatterà la vita quotidiana di milioni di persone che non hanno competenze giuridiche o tecniche, ma hanno diritto di capire quali sono le regole del gioco.
Il rischio è che i decreti nascano da mediazioni al ribasso, scritti in fretta per rispettare scadenze formali, pieni di clausole generiche e rinvii a futuri provvedimenti attuativi.
In quel caso, questa legge sarà ricordata come un’occasione mancata: il primato europeo di una regolazione che regola poco, e male.
🔔 Vuoi restare aggiornato ogni settimana su contenuti legali, attualità e consigli pratici?
Iscriviti gratuitamente a uno dei miei canali:
– 🟢 WhatsApp → https://avvocatonardini.it/whatsapp
– 🔵 Telegram → https://t.me/stefano_nardini
– 🔴 YouTube → https://www.youtube.com/@StefanoNardiniStudio

Autore: Avv. Stefano Nardini
Avvocato, esperto in diritto delle nuove tecnologie, privacy e sicurezza informatica. Opera da oltre 20 anni nella consulenza per imprese, professionisti ed enti pubblici su GDPR, compliance e innovazione digitale. Data Protection Officer e Privacy Officer certificato.
Si occupa inoltre di diritto civile e penale, con esperienza in contenzioso, contrattualistica, responsabilità civile, reati connessi all’ambito digitale (cybercrime, trattamento illecito dei dati) e difesa penale tradizionale.
Lavora sul fronte della prevenzione e della gestione pratica dei rischi, unendo competenza tecnica e attenzione ai principi di giustizia ed etica.
🔗 Scopri di più sull’autore
L’autore ha impiegato strumenti di intelligenza artificiale come supporto redazionale, curando personalmente la selezione, l’organizzazione e la verifica rigorosa dei contenuti.
Condividi, scegli il tuo social network!
NEWSLETTER
Ti è piaciuto questo articolo? Ricevi via email i nuovi contenuti su privacy, tecnologia e diritto digitale.
Niente spam, solo contenuti di valore.
Cancellazione immediata quando vuoi.

