AI Act: possiamo davvero normare l’intelligenza artificiale senza perdere l’umano?
L’intelligenza artificiale non è più un concetto da futurologi. È qui, adesso, e permea già ambiti cruciali come la giustizia predittiva, la sanità, il lavoro, la finanza. Di fronte a questa rivoluzione silenziosa ma potentissima, il diritto europeo risponde con il Regolamento AI Act, il primo tentativo globale di normare l’uso dell’intelligenza artificiale. Ma la domanda vera, per me, è un’altra: può davvero una norma regolare l’imprevedibile?
La sfida non è solo giuridica, è antropologica. Perché ogni volta che deleghiamo una decisione a un algoritmo, ridefiniamo i confini della responsabilità, della libertà, e perfino della colpa.
E allora: cosa succede quando una macchina sbaglia? E soprattutto: chi paga davvero?
In questo articolo condivido alcune riflessioni personali sui punti nevralgici dell’AI Act, mi interrogo sul concetto di responsabilità nel mondo dell’IA e, soprattutto, su quello che considero il rischio più grande di tutti: perdere di vista l’umano.
Se preferisci un’introduzione veloce o vuoi ascoltare un commento diretto, guarda questo video pubblicato sul mio canale YouTube:
Cos’è l’AI Act – in breve
L’AI Act è il primo regolamento europeo che cerca di porre dei paletti chiari allo sviluppo e all’uso dell’intelligenza artificiale.
Non è solo una legge tecnica, anche se si presenta così.
È soprattutto un intervento politico e culturale, che riflette la volontà del legislatore di rassicurare e contenere, più che di affrontare a fondo le trasformazioni in atto.
Il rischio è quello di una risposta più simbolica che sostanziale. Cerca di rassicurare l’opinione pubblica più che affrontare davvero il cuore del problema: la perdita di controllo sulle decisioni automatizzate.
Si propone di garantire sicurezza, trasparenza e diritti fondamentali, ma lo fa attraverso una classificazione dei rischi che, personalmente, trovo troppo semplificata rispetto alla complessità reale dei sistemi di IA.
È come se cercassimo di imbrigliare una tempesta con delle etichette.
Per chi non ha familiarità, il regolamento distingue tra:
- Rischio inaccettabile: sistemi vietati, come il social scoring di Stato o la manipolazione subliminale.
- Alto rischio: come l’IA usata in ambito sanitario, scolastico o lavorativo, che richiede obblighi stringenti di trasparenza e controllo umano.
- Rischio limitato: per cui basta un’informativa trasparente.
- Rischio minimo o nullo: dove l’uso è libero, come nei sistemi di raccomandazione per e-commerce

Fin qui, tutto condivisibile. Ma è nel passaggio dalla teoria alla pratica che, secondo me, iniziano le vere domande: come si valuta il rischio reale di un algoritmo? E cosa succede se un sistema dichiarato “a basso rischio” innesca effetti sproporzionati?
Il problema della rigidità normativa in materie complesse l’ho affrontato, sia in un video che in un articolo, parlando degli smart contracts: sistemi teoricamente infallibili che però, quando sbagliano, mettono in crisi il diritto (ne parlo qui).
L’AI Act vorrebbe affermare un principio forte: non tutto ciò che è possibile, è accettabile. Ma più che una realtà giuridica effettiva, per ora, resta un’intenzione dichiarata. E come spesso accade con i grandi principi, il rischio è che rimanga più sulla carta che nella prassi.
Ma questo basta per proteggere l’umano dalla macchina?

Il nodo della responsabilità
Per capire la portata del problema, basta guardare cosa è già accaduto.
Negli Stati Uniti, l’algoritmo COMPAS, utilizzato per valutare il rischio di recidiva dei detenuti, è stato accusato di discriminare sistematicamente le persone nere, assegnando punteggi di rischio più alti a parità di reati rispetto a persone bianche. Amazon ha dovuto dismettere un sistema di selezione del personale basato sull’intelligenza artificiale perché penalizzava i curriculum femminili.
Un’indagine del New York Times ha messo in discussione il funzionamento dell’Apple Card, accusata di concedere limiti di credito più bassi alle donne rispetto agli uomini, anche a parità di condizioni.
In ambito sanitario, uno studio pubblicato su Science ha rivelato come un algoritmo ampiamente utilizzato negli Stati Uniti per la gestione delle priorità sanitarie assegnasse meno risorse ai pazienti neri, pur avendo bisogno di cure analoghe ai pazienti bianchi. Non perché fosse stato programmato così, ma perché si basava su dati storici distorti.
Tutti questi casi non sono frutto di “errori di codice”, ma di un sistema che riproduce — e amplifica — pregiudizi sistemici già esistenti, e lo fa in modo opaco, automatizzato, difficilmente contestabile.
Uno dei punti più delicati dell’intero impianto normativo è proprio questo: chi risponde quando l’intelligenza artificiale sbaglia?
L’AI Act tenta di distribuire la responsabilità lungo la filiera dello sviluppo: chi progetta, chi addestra, chi commercializza, chi utilizza.
Una sorta di catena del controllo, che però si spezza facilmente alla prova dei fatti.
Perché, nella pratica, gli algoritmi evolvono, si adattano, apprendono — e soprattutto vengono inseriti in contesti dinamici, spesso imprevedibili.
Inoltre, questi sistemi non sono statici: acquisiscono autonomia operativa, e possono produrre risultati inattesi anche agli occhi di chi li ha costruiti.
È in questo spazio di ambiguità che nascono i problemi più seri: bias impliciti (dovuti a dati di addestramento non neutri), allucinazioni logiche (cioè risposte errate, ma formalmente plausibili), e decisioni opache non interpretabili nemmeno dai tecnici.
Come si fa a stabilire una responsabilità giuridica chiara, se non si riesce nemmeno a ricostruire con certezza il percorso logico che ha portato a una decisione?
La vera sfida non è solo legale, è epistemologica: siamo di fronte a strumenti che sanno “produrre risultati”, ma senza “spiegare il perché”.
Il rischio, che io vedo molto chiaramente, è la deresponsabilizzazione generalizzata: tutti sono un po’ responsabili, quindi nessuno lo è davvero. Si finisce per costruire un sistema dove la colpa si diluisce, si disperde, fino a diventare irrintracciabile.
Non basta dire che “ci sarà un controllo umano”. Chi controlla cosa? Con che strumenti? E con quale competenza?
Il mito della supervisione umana è spesso una formula di comodo, un modo per tranquillizzare il legislatore e l’opinione pubblica, senza garantire nulla di concreto.
In definitiva, il concetto stesso di responsabilità rischia di diventare incompatibile con sistemi che prendono decisioni autonome su basi probabilistiche, non deterministiche.
Eppure, nel diritto, la responsabilità presuppone intenzionalità, prevedibilità, relazione causale chiara.
L’AI Act non ha ancora sciolto questo nodo. E forse non può farlo da solo. Ma ignorarlo, o accontentarsi di soluzioni formali, sarebbe un errore colossale.
In questo senso, noto con una certa preoccupazione un tratto ricorrente nella produzione normativa europea: la tendenza a privilegiare l’aspetto formale rispetto a quello sostanziale.
È un atteggiamento che abbiamo già visto nel GDPR, dove spesso l’attenzione si concentra più sull’adempimento documentale che sull’effettiva tutela dei diritti.
Anche con l’AI Act, si rischia di moltiplicare le checklist senza garantire una vera capacità di intervento sui contenuti e sugli effetti concreti delle decisioni automatizzate.
Ho approfondito questi aspetti anche in relazione ad un caso concreto, quello dell’uso non corretto di ChatGPT in ambito giudiziario (ne parlo qui).
Il pericolo più grande: l’oblio dell’umano
C’è un rischio che, personalmente, considero più insidioso di tutti: quello di dimenticare l’umano. Quando discutiamo di intelligenza artificiale, di regolamenti, di categorie di rischio, a volte perdiamo di vista il fatto che ogni decisione automatizzata ha un impatto su persone vere. Su diritti veri. Su vite reali.
Nel tentativo di rendere l’IA compatibile con il diritto, rischiamo di assuefarci a una visione ipertecnologica della società, dove la relazione tra individuo e potere si trasforma in rapporto tra individuo e algoritmo.
L’AI Act, pur animato da buone intenzioni, sembra muoversi più per arginare che per comprendere. Manca, a mio avviso, una riflessione etica profonda su quali margini vogliamo preservare all’intervento umano: il dubbio, il buon senso, la compassione, la possibilità di sbagliare per eccesso di umanità, non per difetto di calcolo.

Quale ruolo per il diritto?
A questo punto, mi chiedo: che ruolo può (e deve) avere il diritto di fronte a un cambiamento così profondo?
Il diritto non può più limitarsi a inseguire gli sviluppi tecnologici.
Deve recuperare la sua funzione guida, anticipatrice, culturale.
Perché non possiamo continuare a costruire norme ex post, come se il massimo a cui possiamo ambire fosse mettere una toppa a danni già compiuti.
Il diritto dovrebbe essere lo spazio dove si decide se certe innovazioni abbiano senso per una società che vuole restare umana, prima ancora che efficiente. Ma oggi, troppo spesso, ci accontentiamo di regole che sembrano pensate più per proteggere il sistema che per proteggere le persone
Il giurista, allora, deve diventare qualcosa di più di un interprete di norme. Deve tornare a essere un mediatore tra linguaggi: tra quello del codice binario e quello della dignità umana. Tra logiche di mercato e principi costituzionali. Tra ciò che è tecnicamente possibile e ciò che è eticamente accettabile.
E questo vale anche per noi avvocati: non si tratta solo di aggiornare le competenze, ma di avere il coraggio di fare domande scomode. Di difendere gli spazi dell’umano anche quando tutto spinge verso l’automazione.
In questo quadro, il diritto può ancora essere un presidio di libertà. Ma solo se saprà riconoscere che l’efficienza non è l’unico valore, e che una società giusta si misura anche da quanto spazio lascia alla fragilità, all’errore, alla responsabilità condivisa.
Serve però una consapevolezza collettiva. Non solo tra i tecnici e i giuristi, ma tra i cittadini e le istituzioni. Perché il vero salto di qualità non sarà dettato dalla quantità di norme, ma dalla qualità delle domande che ci poniamo nel crearle.
Il diritto, se vuole essere davvero all’altezza di questa sfida, deve tornare a porre principi, non solo vincoli. Deve farlo in modo elastico e lungimirante, senza cedere alla tentazione dei formalismi rigidi che rassicurano ma non proteggono.
Una norma viva, che sappia leggere il contesto, prevedere le trasformazioni, e soprattutto non perdere mai di vista l’essere umano a cui dovrebbe servire.
L’AI Act è un primo passo. Necessario, importante, ma non sufficiente. Rischia di diventare una scatola normativa elegante ma vuota, se non verrà riempita di significati reali, di prassi efficaci, di cultura giuridica viva.
Il problema non è solo il testo di legge, ma lo spirito con cui verrà applicato. Se prevarrà l’approccio burocratico, quello delle checklist, dei registri, dei documenti di conformità, allora avremo creato l’illusione della regolazione, senza aver davvero governato nulla.
Ma se invece sapremo usare questo regolamento come occasione per riflettere — come cittadini, giuristi, sviluppatori — su cosa voglia dire davvero responsabilità, controllo e umanità nell’era dell’intelligenza artificiale, allora sì, l’AI Act potrà rappresentare qualcosa di più.
Potrà essere il punto di partenza per una nuova stagione del diritto. Una stagione in cui la tecnica non è più avanti del pensiero, e dove la legge non serve solo a riparare, ma a prevenire, comprendere, proteggere.
Dipende da noi. Sempre solo da noi.
Se desideri un approfondimento ufficiale sul Regolamento AI Act, puoi leggere il documento completo del Parlamento Europeo (leggilo qui)
Fonti e approfondimenti:
- Apple Card e discriminazione nei prestiti – New York Times: https://www.nytimes.com/2019/11/10/business/Apple-credit-card-investigation.html
- Bias razziale in sanità – Science: https://www.science.org/doi/10.1126/science.aax2342
- COMPAS: algoritmo predittivo e discriminazioni – ProPublica: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
- Amazon e discriminazione nei colloqui – Reuters: https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G
- Opacità algoritmica e IA come “scatola nera” – MIT Technology Review: https://www.technologyreview.com/2017/04/11/5113/the-dark-secret-at-the-heart-of-ai/

Autore: Avv. Stefano Nardini
Avvocato, esperto in diritto delle nuove tecnologie, privacy e sicurezza informatica. Opera da oltre 20 anni nella consulenza per imprese, professionisti ed enti pubblici in materia di GDPR, compliance e innovazione digitale. Data Protection Officer e Privacy Officer certificato.
Questo articolo riflette l’esperienza maturata direttamente sul campo, nella gestione di casi reali in tema di identità digitale e protezione dei dati.
🔗 Scopri di più sull’autore
L’autore ha impiegato strumenti di intelligenza artificiale come supporto redazionale, curando personalmente la selezione, l’organizzazione e la verifica rigorosa dei contenuti.