Censura, Algoritmi e il caso Barbero: la domanda non è “chi” ma “come”
Dal caso Barbero al DSA: perché la moderazione non è mai solo tecnica, ma una questione di democrazia interiore.
Il dibattito che periodicamente esplode attorno a casi di censura, fact-checking o moderazione dei contenuti segue quasi sempre lo stesso copione ci si divide in tifoserie, si cercano colpevoli e vittime, si discute se una persona sia affidabile, competente, simpatica o ideologicamente accettabile.
È successo di nuovo con il caso del video di Alessandro Barbero, segnalato e limitato su Meta a seguito di interventi di fact-checking.
C’è chi ha parlato di censura, chi di tutela dell’informazione, chi di responsabilità delle piattaforme.
Solo che continuare a discutere di Barbero sì/no significa perdersi il punto.
La domanda davvero rilevante non è chi viene colpito, né chi decide in concreto; la domanda giusta è come funziona il meccanismo che governa oggi la visibilità delle idee nello spazio pubblico digitale.
Oltre il caso concreto
Usare il caso Barbero come cartina di tornasole è utile solo a una condizione: non trasformarlo in una contesa tra carnefici e vittime.
Barbero non è il problema.
Meta non è il problema, il problema è strutturale.
Quando una piattaforma riduce la diffusione di un contenuto, ne limita la monetizzazione o ne segnala l’inaffidabilità, non sta semplicemente “applicando una regola”, sta esercitando un potere di indirizzo dell’opinione pubblica.
Un potere che non si manifesta con il silenzio imposto, ma con qualcosa di molto più sottile: la modulazione algoritmica della visibilità.
Non si tace una voce, la si rende irrilevante e questo, per la salute del dibattito democratico, è forse ancora più insidioso del silenzio.
Perché il silenzio lo percepisci, l’irrilevanza, no, semplicemente sparisci dal flusso, e nessuno sa che sei mai esistito.
La moderazione come potere normativo di fatto
Nel dibattito pubblico si tende a confondere tre piani distinti:
- La repressione di condotte penalmente rilevanti
- La rimozione di contenuti palesemente illeciti
- La valutazione di contenuti leciti ma ritenuti problematici, fuorvianti o pericolosi
I primi due rientrano, almeno in teoria, nella sfera della legalità ordinaria: polizia giudiziaria, magistratura, garanzie procedurali.
Il terzo piano è quello davvero delicato, qui non si punisce un reato, un illecito, si valuta un significato.
Ed è qui che le cose si complicano davvero, perché la moderazione diventa un potere normativo di fatto: stabilisce quali contenuti meritano attenzione, quali devono essere accompagnati da “bollini” di avvertenza, quali vanno declassati nel flusso informativo.
Non è una decisione tecnica, è una decisione culturale e politica, anche quando si presenta vestita di neutralità tecnologica.
Chi lavora nel settore lo sa bene: non esiste un algoritmo che ti dice “questo è vero” o “questo è falso”.
Esistono modelli addestrati su dataset che incorporano visioni del mondo, priorità editoriali, sensibilità culturali e questi modelli vengono applicati da aziende che hanno interessi commerciali, pressioni reputazionali, timori legali.

Dal criterio sintattico al giudizio semantico
Un punto raramente messo a fuoco è questo: i sistemi di moderazione contemporanei non operano più su criteri puramente formali o “sintattici”.
Non si limitano a verificare se un contenuto viola una regola binaria – spam, malware, pornografia illegale. Valutano il senso, il contesto, l’effetto potenziale del messaggio.
In altre parole: non controllano come è scritto qualcosa, ma cosa significa e come potrebbe essere interpretato dalla massa.
Questo passaggio è decisivo, perché mentre le regole sintattiche possono essere generali, pubbliche e applicabili a tutti, le valutazioni semantiche sono inevitabilmente discrezionali, e la discrezionalità, quando incide sulla formazione dell’opinione pubblica, è sempre un problema democratico.
Facciamo un esempio concreto.
YouTube può demonetizzare un video che parla di guerra, anche se il contenuto è giornalistico, equilibrato, documentato, non perché violi una legge, ma perché gli inserzionisti non vogliono che i loro marchi compaiano accanto a “contenuti sensibili”.
Il risultato? Chi produce informazione seria su temi complessi viene penalizzato economicamente, e nel tempo tende a evitare quegli argomenti.
Non c’è stata censura, c’è stata modulazione economica del discorso pubblico.
Stesso discorso per Twitter/X, che applica label di “contesto mancante” su post che magari riportano dati verificabili ma considerati “fuorvianti” perché manca una premessa, un dato comparativo, una precisazione.
Chi decide cosa manca?
Chi stabilisce quale contesto è sufficiente?
E TikTok, che shadowbanna contenuti senza nemmeno notificarlo all’autore: il video resta online, ma semplicemente non viene mostrato.
L’utente continua a pubblicare pensando di essere visto, ma sta parlando nel vuoto.
Insomma, la moderazione contemporanea non elimina, modula, e questa modulazione è invisibile, incontestabile, irreversibile nella pratica.

Il nodo democratico
I social media sono oggi il principale luogo di maturazione della coscienza collettiva.
Non sono più solo svago, sono diventati, di fatto, le nuove piazze, i nuovi giornali, i nuovi spazi di dibattito pubblico del Novecento.
Il punto è che questo spazio, oggi, è in mano a soggetti privati, opachi nei criteri decisionali e sottratti a un controllo democratico diretto.
Non esistono algoritmi “neutrali”, esistono algoritmi più o meno controllabili, più o meno contestabili, più o meno responsabili.
Oggi siamo abituati a considerare normale che un profilo sparisca senza spiegazioni, che un post venga sepolto senza motivo, che la visibilità di un’idea dipenda da valutazioni interne che non possiamo nemmeno contestare.
Questa normalizzazione è il vero rischio, ci stiamo abituando a un’architettura della sorveglianza che scambiamo per sicurezza.
E qui entra in gioco la dimensione più sottile, quella che chiamo democrazia interiore.
Quando l’algoritmo entra in testa
La domanda più scomoda, forse, è questa: quanto delle nostre opinioni è davvero nostro?
Se ogni volta che scriviamo un post abbiamo in testa l’algoritmo cosa verrà premiato, cosa penalizzato, quale parola potrebbe far scattare un filtro.
Stiamo ancora pensando liberamente o stiamo semplicemente recitando un copione scritto altrove?
Ho notato che molti creator, anche quelli con posizioni nette e coraggiose, hanno iniziato a usare espressioni neutre, eufemismi, giri di parole, non perché siano diventati meno convinti, ma perché sanno che certe parole abbassano la reach, altre attivano revisioni manuali, altre ancora fanno scattare demonetizzazioni.
E allora si autocensurano, non per paura della legge, per paura dell’irrilevanza.
Questa è la forma più raffinata di controllo: non ti impedisco di parlare, ti faccio credere che non valga la pena farlo, ti convinco che il problema sei tu, la tua scelta di argomenti “scomodi”, la tua incapacità di essere “mainstream”.
Quando la paura di non essere visti supera il desiderio di dire la verità, la crescita collettiva si arresta, perché una società non cresce eliminando le opinioni scomode, cresce mettendole alla prova, discutendole, confutandole. Ma questo processo richiede che le opinioni siano visibili.
E se la visibilità è una concessione revocabile, il dibattito muore prima ancora di iniziare.
Il condizionamento legale come responsabilità oggettiva di fatto
Le piattaforme agiscono così, non per cattiveria, per prudenza sistemica.
Qui entra in gioco il quadro normativo che ho analizzato in dettaglio qualche giorno fa in un video sul Digital Services Act.
Il DSA non è una “legge bavaglio” nel senso classico del termine, non dice mai: “questa frase è vietata”, ma introduce un meccanismo molto più sofisticato, basato sulla gestione del rischio.
In sintesi: le piattaforme molto grandi (le cosiddette VLOP) devono identificare i “rischi sistemici” legati ai loro servizi (impatti su diritti fondamentali, processi elettorali, dibattito civico, sicurezza pubblica) e adottare misure per mitigarli.
Categorie ampie, concetti elastici, margini enormi di interpretazione.
La mitigazione passa dai sistemi di raccomandazione: il contenuto non viene cancellato, ma smette di essere distribuito, rimane online, tecnicamente, ma diventa un sussurro in discoteca.
E il bastone? Sanzioni fino al 6% del fatturato mondiale annuo, per Meta e Google sono miliardi.
Quando sommi concetti vaghi, obblighi aperti e multe da capogiro, il gioco è fatto.
Da “è legale?” a “è prudente?”
Il passaggio cruciale è questo: la domanda che le piattaforme si pongono non è più “questo contenuto viola una legge?”, ma “questo contenuto genera un rischio che potrei dover giustificare davanti alla Commissione europea?”.
È un passaggio sottile ma devastante, perché introduce una forma di responsabilità oggettiva di fatto: non conta solo quello che pubblichi, ma l’effetto potenziale che potrebbe avere nel dibattito pubblico.
E poiché nessuna piattaforma può permettersi di essere accusata di aver facilitato “interferenze straniere”, “disinformazione elettorale” o “minacce ibride” – tutte categorie che la cornice Democracy Shield ha reso parte del lessico istituzionale – la scelta più razionale diventa l’over-compliance preventiva.
In altre parole, meglio limitare dieci contenuti leciti che rischiare di lasciarne passare uno problematico.
Il caso X: quando il bastone colpisce davvero
A dicembre 2024 la Commissione ha inflitto a X una multa da 120 milioni di euro per violazioni del DSA.
I dettagli li ho raccontati nel video, qui mi interessa un’altra cosa: cosa succede negli uffici delle altre piattaforme il giorno dopo.
Perché immagino la scena, riunione del team legale, qualcuno proietta la notizia sullo schermo e la domanda non è “abbiamo fatto le stesse cose di X?”, la domanda è: “se succedesse a noi, quanto ci costerebbe difenderci?”.
E lì parte il ragionamento, che non è “complottista” è banalmente aziendale.
Iniziano a rivedere le policy interne, non in modo plateale, non con annunci.
Semplicemente abbassano le soglie. Il team di moderazione riceve nuove linee guida, più cautelative.
Gli algoritmi di raccomandazione vengono “raffreddati” su certe categorie.
Niente di eclatante, solo un leggero spostamento dell’equilibrio verso la prudenza.
E questo, dal loro punto di vista, è perfettamente razionale.
Non è censura, è gestione del rischio.
Se devi scegliere tra lasciare circolare un contenuto lecito ma potenzialmente controverso oppure rischiare un procedimento da milioni di euro, la scelta è ovvia.
Il problema è che questa razionalità, moltiplicata per tutte le piattaforme che hanno visto la multa a X, produce un effetto cumulativo: lo spazio di dibattito si restringe progressivamente.
E questo non verso una posizione specifica imposta dall’alto, verso una zona neutra, tiepida, dove nessuno dice nulla di abbastanza netto da poter essere contestato.
E noi, dall’altra parte dello schermo, non ce ne accorgiamo nemmeno perché nessuno ci ha censurato. Semplicemente, certe conversazioni smettono di emergere.

L’allineamento prudenziale
Questa dinamica crea quello che potremmo chiamare “allineamento prudenziale”: non è che le piattaforme abbiano un’agenda ideologica predefinita, è che hanno un incentivo strutturale a ridurre tutto ciò che potrebbe essere contestato come “rischioso”.
E cosa è rischioso?
Dipende dal momento, dal contesto, dalla sensibilità politica del periodo.
Un’analisi critica su un tema elettorale controverso? Rischiosa.
Un’inchiesta giornalistica su infiltrazioni di lobby? Rischiosa.
Una satira pungente su figure istituzionali? Rischiosa.
Non perché illegale, perché potenzialmente costosa da difendere.
Il risultato è un appiattimento progressivo del dibattito pubblico, non verso una narrativa ufficiale imposta dall’alto, ma verso una zona grigia di sicurezza dove nessuno dice nulla di troppo netto, nessuno solleva dubbi troppo scomodi, nessuno rischia di essere etichettato come “fonte di rischio sistemico”.
E qui torniamo alla democrazia interiore, perché a questo punto non serve più che qualcuno ti dica cosa pensare, hai già imparato cosa non conviene pensare ad alta voce.
Non è una difesa della menzogna
Chiarire questo punto è essenziale.
Criticare i meccanismi di moderazione non significa difendere la falsità o la disinformazione deliberata, significa rifiutare l’idea che la soluzione consista nel filtrare preventivamente il dibattito affidando il setaccio a un ente privato incentivato alla prudenza difensiva.
Una società democratica non cresce eliminando le opinioni sbagliate per decreto algoritmico, ma mettendole alla prova nel confronto.
La maturazione dell’opinione pubblica è un processo imperfetto, conflittuale, a volte scomodo, ma è l’unico compatibile con la libertà e con la responsabilità individuale.
L’alternativa, delegare a terzi il compito di stabilire cosa è vero, cosa è fuorviante, cosa è pericoloso, è comoda. Ma ha un costo altissimo: rinunciamo alla fatica del discernimento e senza discernimento non c’è crescita, né individuale né collettiva.
Che cosa si potrebbe fare (concretamente)
Va bene criticare ma senza alternative concrete, la critica resta sterile, allora proviamo a delineare alcune piste operative, sapendo che nessuna è risolutiva da sola, ma che insieme potrebbero spostare l’equilibrio.
1. Audit pubblici degli algoritmi di raccomandazione
Le piattaforme dovrebbero essere obbligate a rendere pubblici, almeno nelle linee generali, i criteri con cui i loro algoritmi decidono cosa mostrare e cosa no.
Non si tratta di rivelare i segreti industriali, ma di garantire un minimo di trasparenza democratica.
Se un contenuto viene declassato, l’utente dovrebbe sapere perché.
2. Diritto di contestazione effettivo
Oggi esiste, sulla carta, nella pratica, compilare un form che nessuno leggerà mai non è un diritto.
Serve un sistema di appello reale, con tempi certi e motivazioni pubbliche, e dove la piattaforma ha sbagliato, serve risarcimento, economico, se c’è stata demonetizzazione, o almeno reputazionale.
3. Ridefinizione dei “rischi sistemici” con criteri verificabili
Il DSA parla di “rischi sistemici” senza definirli in modo operativo.
Serve un lavoro di precisazione normativa: quali evidenze dimostrano un rischio?
Con quale metodo si valuta?
Chi può contestare la valutazione?
Senza questo, il rischio resta una categoria politica travestita da categoria tecnica.
4. Responsabilità proporzionale, non oggettiva
Il sistema attuale incentiva la prudenza estrema perché la piattaforma rischia anche per contenuti che non ha creato.
Serve un meccanismo che distingua tra responsabilità per azione (contenuti propri) e responsabilità per omissione (mancata moderazione) e quest’ultima dovrebbe scattare solo in presenza di dolo o colpa grave, non per semplice rischio potenziale.
5. Educazione critica alla lettura algoritmica
Non possiamo delegare tutto alla regolazione, serve anche una maggiore consapevolezza individuale.
Capire come funzionano gli algoritmi, quali bias incorporano, come modulano la nostra percezione del mondo, non per diventare paranoici, ma per diventare responsabili, perché la libertà senza consapevolezza è fragilissima.
La domanda che resta aperta
Il caso Barbero, come molti altri prima e dopo, passerà.
Ci sarà un nuovo episodio, un nuovo nome, una nuova polemica.
Se continuiamo a discutere solo di chi viene colpito, continueremo a dividerci in fazioni senza affrontare il nodo reale.
La domanda che dovremmo porci è un’altra: vogliamo che la formazione della nostra visione del mondo sia governata da criteri opachi e incentivi prudenziali, oppure vogliamo riaprire una riflessione seria su come garantire libertà e pluralismo nello spazio digitale?
La risposta non è semplice ma continuare a ignorare la domanda è un lusso che non possiamo più permetterci.
Perché in fondo, quello che è in gioco non è solo la libertà di espressione, è la libertà di pensiero, e senza quella, non c’è crescita che tenga.
🔔 Vuoi restare aggiornato ogni settimana su contenuti legali, attualità e consigli pratici?
Iscriviti gratuitamente a uno dei miei canali:
– 🟢 WhatsApp → https://avvocatonardini.it/whatsapp
– 🔵 Telegram → https://t.me/stefano_nardini
– 🔴 YouTube → https://www.youtube.com/@StefanoNardiniStudio

Autore: Avv. Stefano Nardini
Avvocato, esperto in diritto delle nuove tecnologie, privacy e sicurezza informatica. Opera da oltre 20 anni nella consulenza per imprese, professionisti ed enti pubblici su GDPR, compliance e innovazione digitale. Data Protection Officer e Privacy Officer certificato.
Si occupa inoltre di diritto civile e penale, con esperienza in contenzioso, contrattualistica, responsabilità civile, reati connessi all’ambito digitale (cybercrime, trattamento illecito dei dati) e difesa penale tradizionale.
Lavora sul fronte della prevenzione e della gestione pratica dei rischi, unendo competenza tecnica e attenzione ai principi di giustizia ed etica.
🔗 Scopri di più sull’autore
L’autore ha impiegato strumenti di intelligenza artificiale come supporto redazionale, curando personalmente la selezione, l’organizzazione e la verifica rigorosa dei contenuti.
Condividi, scegli il tuo social network!
NEWSLETTER
Ti è piaciuto questo articolo? Ricevi via email i nuovi contenuti su privacy, tecnologia e diritto digitale.
Niente spam, solo contenuti di valore.
Cancellazione immediata quando vuoi.

