Decisione automatica e decisione delegata: quando “è il sistema” diventa un alibi
Dalla privacy invocata a sproposito agli algoritmi senza appello.
Come il meccanismo della delega, tecnologico e umano, sta erodendo la responsabilità.
C’è una frase che ormai sentiamo dire quasi ovunque, con una naturalezza che, se ci pensi, è già strana di per sé: “Non è una mia decisione, è il sistema.”
Oppure: “Non posso darle questa informazione, c’è la privacy” o ancora: “Non dipende da me, è la commissione che ha deciso” o, nella versione più elegante: “Sono le regole del mercato”
Cambiano le parole, cambia il contesto, il meccanismo è sempre lo stesso.
Qualcuno sposta il peso della scelta su qualcos’altro una norma, un algoritmo, un organo collegiale, una forza impersonale e, nel farlo, si solleva dall’obbligo di rispondere, non di sbagliare, si badi bene, di rispondere.
È un riflesso antico, molto più antico di internet, degli algoritmi, dei chatbot.
La tecnologia non l’ha inventato, l’ha solo reso più sofisticato, più difficile da contestare e, questo è il punto, socialmente più accettabile.
La distinzione che vale la pena tenere a mente è semplice, anche se quasi mai viene fatta esplicitamente.
Una cosa è che un processo produca un risultato in modo automatico, senza intervento umano in quel passaggio. Un’altra cosa, completamente diversa, è che l’essere umano abbia smesso di voler capire, valutare e rispondere di ciò che accade.
La prima è automazione, la seconda è delega e la differenza non è filosofica, è la differenza tra uno strumento e un alibi.
Il martello non ha intenzioni, ma chi lo tiene in mano sì.
Nella vita quotidiana, quella lontana dagli algoritmi, fatta di uffici, sportelli, riunioni, telefonate, la delega funziona in modo ancora più sottile, perché spesso si traveste da correttezza istituzionale.
“Non posso darle questa informazione per la privacy” è diventata una formula magica capace di chiudere qualsiasi conversazione, anche quando la privacy non c’entra nulla o quando il dato richiesto sarebbe perfettamente accessibile.
La norma viene invocata non per proteggere qualcuno, ma per non dover spiegare, decidere o, peggio, per non dover dire no in prima persona.
Lo stesso accade quando una delibera viene attribuita interamente a “il consiglio” o “la commissione”, come se chi partecipa a un organo collegiale smettesse di essere una persona con una posizione. Oppure quando “le regole del mercato” diventano una forza naturale, neutra e inevitabile, invece di quello che sono: scelte fatte da persone, in un contesto dato, con determinati interessi.
Il punto non è che queste cose siano false in assoluto, a volte la privacy è davvero un vincolo, a volte una decisione collegiale è genuinamente condivisa. A volte il mercato ha una sua logica interna che nessuno controlla da solo.
Il punto è quando queste spiegazioni diventano automatiche, quando la prima reazione di fronte a una richiesta scomoda non è come posso rispondere ma a cosa posso appoggiarmi per non rispondere.

La tecnologia ha amplificato questo meccanismo perché ha aggiunto un livello di opacità difficile da penetrare.
Con una persona puoi discutere, con un regolamento puoi trovare l’eccezione, con “il sistema” spesso non sai nemmeno da dove cominciare.
Succede nelle banche, dove un bonifico viene bloccato e la risposta è sempre la stessa formula, indipendentemente da chi chiama e da cosa spiega.
Succede nella pubblica amministrazione, dove una domanda viene respinta in automatico e l’unica cosa che ricevi è un codice di errore, senza che ci sia un modo comprensibile per capire se hai sbagliato davvero o se c’è stato un problema nei dati.
Succede sui social, dove un contenuto sparisce sulla base di regole che nessuno ti spiega e che sembrano applicate in modo incoerente.
Succede nell’assistenza clienti, dove giri in tondo tra chatbot e menu a scelta multipla finché non molli, e a quel punto ti senti quasi in colpa per aver insistito, come se chiedere di parlare con una persona fosse un capriccio.
Quello che accomuna questi casi non è la tecnologia in sé, è la scelta, fatta da persone, in qualche momento precedente, di non presidiare più il momento della decisione, di lasciare che l’output automatico diventasse la risposta definitiva, di far sparire il soggetto che risponde.
C’è anche una parte scomoda da guardare.
La delega ci piace. Non solo alle aziende o alle istituzioni, piace anche a noi, come individui, perché promette di toglierci di mezzo tre cose che costano fatica: decidere, spiegare, affrontare il conflitto.
Quando qualcosa decide al posto nostro, non dobbiamo giustificarci, non dobbiamo gestire la reazione dell’altro, non dobbiamo stare nell’incertezza di una scelta difficile.
Negli ultimi anni questa tendenza si è accentuata in modo che sarebbe difficile non notare.
Come se la complessità del mondo avesse reso sempre meno tollerabile l’idea di dover rispondere in prima persona di qualcosa.
Come se il “non dipende da me” fosse diventato non solo una risposta accettabile, ma quasi una forma di onestà, quasi dicesse: “guarda, anch’io sono vittima di qualcosa di più grande”.
La tecnologia ci viene venduta come strumento di trasparenza, e invece in molti casi produce una forma di opacità più difficile da contestare di qualsiasi decisione umana.
Il problema è che questa comodità si paga.
Si paga con l’abitudine a non chiedere più conto, si paga con la progressiva accettazione dell’idea che certe porte si chiudano senza motivo apparente e che non ci sia niente da fare; si paga, in modo più sottile, con la percezione che un output tecnico, o una norma, o una delibera, sia per definizione più obiettivo di un giudizio umano, anche quando è sbagliato, anche quando è costruito su presupposti distorti o su dati imprecisi.
Almeno con una persona puoi discutere, Con “il sistema” o con “la norma”, o con “il mercato” spesso non sai nemmeno da dove cominciare.

Allora cosa si può fare, nella pratica?
Non c’è una risposta sola, ma ci sono alcune domande che vale la pena imparare a fare, a se stessi, se si gestisce un processo, e agli altri, quando si è dall’altra parte di un rifiuto.
Chi può spiegare questa decisione in modo comprensibile?
Se nessuno lo sa fare, non c’è controllo: c’è un rituale.
Esiste un modo reale per correggere un errore, integrare un dato, chiedere un riesame?
Se non esiste, non è un processo: è una sentenza.
C’è qualcuno che risponde, in prima persona, di come sta andando?
Questa ultima domanda vale per gli algoritmi, vale per le commissioni, vale per chi risponde al telefono con “non posso farci niente”, perché la responsabilità, quella vera, non quella formale, non si delega.
Si può spostare, nascondere, distribuire fino a renderla invisibile ma da qualche parte c’è sempre una persona che ha fatto una scelta e quella scelta ha delle conseguenze su qualcun altro.
L’automazione è inevitabile, e spesso è davvero utile, la norma è necessaria, l’organo collegiale ha un senso, non è questo il problema.
Il problema è quando tutto questo diventa il posto dove nascondere la scelta di non scegliere, quando serve a far sparire il momento in cui qualcuno deve rispondere di qualcosa, quando “è il sistema” non è una spiegazione, ma una chiusura.
La tecnologia dovrebbe darci più tempo per decidere meglio, le norme dovrebbero chiarire, non oscurare, le istituzioni dovrebbero rendere conto, non distribuire l’opacità in modo più efficiente.
Se invece usiamo tutto questo per non decidere, il risultato è il contrario di quello che promettiamo, non stiamo semplificando niente, stiamo solo rendendo più difficile trovare chi risponde.
E se non si trova chi risponde, alla fine, non risponde nessuno.
Uso strumenti di intelligenza artificiale nel mio lavoro editoriale.
Le fonti, le verifiche e le scelte di contenuto sono mie.
🔔 Vuoi restare aggiornato ogni settimana su contenuti legali, attualità e consigli pratici?
Iscriviti gratuitamente a uno dei miei canali:
– 🟢 WhatsApp → https://avvocatonardini.it/whatsapp
– 🔵 Telegram → https://t.me/stefano_nardini
– 🔴 YouTube → https://www.youtube.com/@StefanoNardiniStudio

Autore: Avv. Stefano Nardini
Avvocato, esperto in diritto delle nuove tecnologie, privacy e sicurezza informatica. Opera da oltre 20 anni nella consulenza per imprese, professionisti ed enti pubblici su GDPR, compliance e innovazione digitale. Data Protection Officer e Privacy Officer certificato.
Si occupa inoltre di diritto civile e penale, con esperienza in contenzioso, contrattualistica, responsabilità civile, reati connessi all’ambito digitale (cybercrime, trattamento illecito dei dati) e difesa penale tradizionale.
Lavora sul fronte della prevenzione e della gestione pratica dei rischi, unendo competenza tecnica e attenzione ai principi di giustizia ed etica.
🔗 Scopri di più sull’autore
Condividi, scegli il tuo social network!
NEWSLETTER
Ti è piaciuto questo articolo? Ricevi via email i nuovi contenuti su privacy, tecnologia e diritto digitale.
Niente spam, solo contenuti di valore.
Cancellazione immediata quando vuoi.
