Digital Services Act (DSA): la crisi della verità dietro lo “scudo” europeo
Chi amministra davvero la realtà?
L’Unione Europea ha presentato lo European Democracy Shield come una grande infrastruttura di protezione democratica.
Il nome rassicura, ma invita anche a chiedersi cosa venga davvero protetto e cosa invece finisca fuori campo.
Ogni scudo, per definizione, oscura una parte del campo visivo e qui il punto non è solo ciò che difende, è ciò che mette in ombra.
Il dibattito sulla disinformazione non è nuovo, è però diventato il terreno su cui si gioca una partita molto più profonda: chi possiede l’autorevolezza, e l’autorità, per stabilire cosa è vero e cosa non lo è, soprattutto in un contesto di incertezza, opinioni divergenti e interpretazioni legittime?
Il presupposto nascosto: la verità come atto amministrativo
Quando un’istituzione si assume il compito di garantire l’“integrità dell’informazione”, introduce un presupposto enorme: che esista un arbitro superiore capace di certificare la verità.
Una verità che non riguarda solo i fatti verificabili, ma anche le zone grigie del dibattito pubblico.
Sono proprio quelle zone, dove opinioni e interpretazioni si sovrappongono, il luogo naturale del confronto democratico; eppure sono anche le prime a essere regolate.
Accettare questo presupposto significa accettare che la realtà possa essere amministrata come un dossier da istruire, e quando la verità diventa una pratica da certificare, ciò che resta fuori dal dossier non è più un semplice punto di vista: viene trattato come deviazione da correggere, ridurre o silenziare.
La Maginot del pensiero: DSA, AI Act e il controllo stratificato
Lo Scudo della Democrazia non arriva da solo, è l’ultimo tassello di una traiettoria normativa che negli ultimi anni ha costruito una sorta di Linea Maginot del pensiero.
Una linea imponente, rassicurante nella forma, ma dal peso più simbolico che realmente operativo e, soprattutto, tende a spostare il baricentro del controllo dalle piattaforme verso le persone.
In questa traiettoria il ruolo delle Big Tech è tutt’altro che marginale.
Non sono semplici esecutori: sono co‑autrici del nuovo ecosistema di moderazione.
Quando Bruxelles minaccia sanzioni fino al 6% del fatturato globale, le piattaforme non si trasformano improvvisamente in paladine della libertà di espressione, semplicemente, attivano una “rimozione” preventiva.
Il controllo diventa triangolare: Stato → Big Tech → cittadino.

In questo quadro si inserisce ChatControl, per anni sembrava accantonato, invece, il 26 novembre 2025 il Consiglio UE ha dato mandato formale per il trilogo sul regolamento CSAR, che inizierà nel 2026.
Il testo introduce la possibilità di scansione (lato client) dei messaggi crittografati qualora un’autorità nazionale emetta un “ordine di rilevamento”.
Non è un dettaglio: è un cambio di paradigma.
Alcuni attori chiave dell’ecosistema digitale, tra cui Signal, Proton e altri fornitori di servizi cifrati, hanno già affermato che non implementeranno sistemi di scansione (lato client).
Apple stessa, in passato, ha ritirato o limitato funzionalità in mercati dove la privacy non era garantita.
Il messaggio è chiaro: se la norma imponesse backdoor o controlli invasivi, non tutti rimarrebbero sul mercato europeo.
È un segnale della tensione crescente tra tutela della privacy e sorveglianza sistemica.
Parallelamente, la Commissione UE ha sanzionato X (la piattaforma di Elon Musk) per presunte violazioni del DSA: un segnale chiaro che la fase applicativa è entrata nel vivo.
Non si tratta più di definire principi astratti: si interviene concretamente su ciò che viene ritenuto “nocivo”.
Il potere di classificazione non è più potenziale, è operativo.
Accanto a ciò, i meccanismi di fact‑checking finanziati da organismi pubblici sollevano interrogativi legittimi sul conflitto di interessi.
Quando chi deve garantire la “verità condivisa” finanzia anche chi la certifica, il rischio non è teorico, è strutturale. Alcuni episodi recenti hanno mostrato come contenuti controversi ma corretti siano stati etichettati come disinformazione per eccesso di prudenza o allineamento narrativo.
In Italia, l‘AGCOM ha esteso la responsabilità editoriale agli influencer con platee ampie: un cambiamento significativo, perché sposta l’attenzione dalla sola natura del contenuto alla posizione di chi lo diffonde.
La nozione stessa di editorialità si amplia fino a ricomprendere chiunque abbia un impatto rilevante sul discorso pubblico.
E non è un fenomeno circoscritto all’Europa, nel Regno Unito, l’Online Safety Act consente all’Ofcom di intervenire su contenuti “legali ma dannosi”, categoria elastica che rischia di diventare uno strumento di moralizzazione politica.
In Canada, l’Online Harms Act prevede poteri investigativi penetranti, anche sulle comunicazioni private.
In Italia, la normativa sui deepfake, nata con finalità di trasparenza, è così ampia da incentivare rimozioni preventive per prudenza.
È una nuova economia della fiducia delegata: più cresce l’incertezza, più aumenta il valore di chi promette di “garantire” la realtà.
La somma di questi interventi non produce solo controllo: produce una verticalizzazione lenta e progressiva del potere narrativo.
Ciò che nasce come contrasto alla manipolazione rischia di trasformarsi in gestione del consenso, e quando gli strumenti che verificano, classificano e sopprimono contenuti, si concentrano nelle stesse mani, non si difende la democrazia: si restringe il campo delle possibilità.
Un monopolio della narrazione non usa la forza, usa la semantica, l’amministrazione e la tecnologia.
L’alibi perfetto: la minaccia che non possiamo verificare
Per giustificare un apparato di controllo così esteso, la minaccia deve essere grande, persistente e sfuggente, e infatti la narrazione pubblica insiste su interferenze estere, deepfake, operazioni oscure di intelligence.
Esistono? Certo, ma il punto non è questo.
È altrettanto vero che, in una guerra informativa che si combatte da decenni su più livelli, nessuno è soltanto bersaglio, ogni attore geopolitico, nessuno escluso, opera, in misura diversa, azioni di influenza e contro‑informazione all’estero, è il contesto stesso a essere simmetrico, competitivo, opaco.
Il punto è che spesso vengono presentate in modo poco trasparente: rapporti riservati, analisi non pubblicabili, evidenze che “non possono essere divulgate”.
Una minaccia non verificabile dal cittadino diventa, per chi governa, la minaccia ideale: non può essere smentita e resta sempre disponibile per ampliare ulteriormente i poteri di controllo.
La comunicazione è sempre stata rumorosa: pettegolezzi, errori, opinioni distorte.
Il problema non è il rumore, ma chi regola la manopola del volume, se quella manopola finisce in poche mani, non si sta combattendo la manipolazione, la si sta semplicemente centralizzando.
La nuova semantica del potere: protezione come parola-chiave
In questo scenario, il linguaggio diventa decisivo.
Non serve evocare distopie novecentesche: basta osservare come negli ultimi anni il lessico istituzionale abbia ribattezzato problemi politici complessi come questioni tecniche.
Una volta incasellati come questioni tecniche, diventano automaticamente sottratti al dibattito pubblico, dunque difficili da contestare.
Chiamare “Scudo della Democrazia” uno strumento che governa la realtà informativa non è un caso, è un’operazione semantica.
Difesa, integrità, sicurezza: parole positive che mascherano un meccanismo di concentrazione del potere interpretativo.
Il dissenso non viene eliminato con la forza: viene ricodificato come “disinformazione”, e quindi automaticamente delegittimato.
La paura del potere non è la menzogna, che in fondo è prevedibile, è l’imprevedibilità di ciò che sfugge: la critica, l’ambiguità, la complessità del reale.
Quando la risposta è certificare la verità, è la democrazia stessa a fare un passo indietro.

La vera difesa: una cittadinanza che pensa
Se il nodo non è il rumore, ma chi controlla il volume, allora la soluzione non è aumentare gli strati di regolazione, è restituire alle persone la capacità di discernere.
Proteggere le democrazie dalle interferenze è necessario, nessuno lo mette in discussione, ma farlo centralizzando il potere interpretativo è il modo più rapido per trasformare la cura in una nuova forma di malattia istituzionale.
La difesa autentica nasce altrove.
Nasce in una cittadinanza che non delega completamente la comprensione del mondo a un algoritmo o a un ufficio di Bruxelles.
Una cittadinanza che coltiva curiosità, spirito critico, responsabilità.
Una cittadinanza capace di abitare la complessità, invece di aspettare che qualcuno la semplifichi.
È una difesa che non richiede filtri né certificazioni: richiede consapevolezza e il coraggio di esercitarla ogni giorno.
La crescita dell’umanità non è un atto amministrativo: è un processo interiore.
Non abbiamo bisogno di un recinto che delimiti ciò che è vero, ma della libertà, e della responsabilità, di sviluppare gli strumenti per riconoscerlo.
Solo così lo Scudo della Democrazia resterà uno scudo e non diventerà lo steccato che separa il cittadino dalla propria libertà di pensare.
🔔 Vuoi restare aggiornato ogni settimana su contenuti legali, attualità e consigli pratici?
Iscriviti gratuitamente a uno dei miei canali:
– 🟢 WhatsApp → https://avvocatonardini.it/whatsapp
– 🔵 Telegram → https://t.me/stefano_nardini
– 🔴 YouTube → https://www.youtube.com/@StefanoNardiniStudio

Autore: Avv. Stefano Nardini
Avvocato, esperto in diritto delle nuove tecnologie, privacy e sicurezza informatica. Opera da oltre 20 anni nella consulenza per imprese, professionisti ed enti pubblici su GDPR, compliance e innovazione digitale. Data Protection Officer e Privacy Officer certificato.
Si occupa inoltre di diritto civile e penale, con esperienza in contenzioso, contrattualistica, responsabilità civile, reati connessi all’ambito digitale (cybercrime, trattamento illecito dei dati) e difesa penale tradizionale.
Lavora sul fronte della prevenzione e della gestione pratica dei rischi, unendo competenza tecnica e attenzione ai principi di giustizia ed etica.
🔗 Scopri di più sull’autore
L’autore ha impiegato strumenti di intelligenza artificiale come supporto redazionale, curando personalmente la selezione, l’organizzazione e la verifica rigorosa dei contenuti.
Condividi, scegli il tuo social network!
NEWSLETTER
Ti è piaciuto questo articolo? Ricevi via email i nuovi contenuti su privacy, tecnologia e diritto digitale.
Niente spam, solo contenuti di valore.
Cancellazione immediata quando vuoi.

