Grok, i deepfake e il bivio tra censura e responsabilità: quando l’AI diventa indifendibile
Siamo a fine gennaio 2026 e il caso Grok ci offre una fotografia nitida di come funziona il potere digitale oggi.
Tra la fine di dicembre e le prime settimane del nuovo anno, su X il modello di intelligenza artificiale Grok è stato utilizzato per generare e diffondere immagini sessualizzate di persone reali, spesso senza consenso.
Deepfake realistici, creati in pochi secondi, che hanno colpito figure pubbliche e persone comuni con la stessa facilità.
In alcuni casi, l’allarme ha toccato la sfera più delicata: contenuti potenzialmente riferibili a minori.
Di fronte all’onda d’urto mediatica e al rischio legale, la piattaforma ha tirato il freno a mano.
Molti hanno gridato alla censura, altri alla vittoria dell’etica, ma se vogliamo capire cosa è successo davvero, dobbiamo toglierci gli occhiali del tifo da stadio.
Questa non è una “svolta etica” improvvisa, è il momento esatto in cui il confine tra libertà tecnica e responsabilità giuridica viene superato.
L’AI non si è fermata per coscienza, ai è fermata perché il rischio era diventato ingestibile.

Non chiamatela censura
C’è un equivoco che inquina il dibattito, quando una tecnologia consente, in modo prevedibile e massivo, la produzione di contenuti illegali, appellarsi alla “neutralità dello strumento” non regge più.
Va fatta una distinzione che cambia tutto.
Una cosa è la libertà di ricerca: sperimentare in ambienti controllati per capire fin dove può spingersi la tecnica.
Un’altra è la libertà di prodotto: mettere quella capacità in mano a milioni di utenti, con un’interfaccia semplice e una viralità immediata.
Il passaggio dalla ricerca al prodotto non è neutro, è una scelta commerciale, e quando fai quella scelta, la responsabilità giuridica scatta, che ti piaccia o no.
Il consenso non è un dettaglio
Un deepfake sessuale non consensuale non è satira, non è un meme, non è libertà di espressione, è violenza.
Chi lavora nelle aule di tribunale sa che il danno digitale ha caratteristiche terribili.
È istantaneo: l’immagine circola prima ancora che la vittima lo sappia.
È irreversibile, perché non esiste un vero oblio digitale.
È asimmetrico: chi subisce deve inseguire, spendere, denunciare; chi diffonde resta al sicuro dietro uno schermo.
Quando entrano in gioco i minori, la soglia di tolleranza è zero.
La tutela ex post, rimuovere dopo la pubblicazione, arriva quasi sempre tardi.
Ecco perché le misure devono essere preventive, strutturali, inserite nel codice stesso.
Si chiama “Safety by design”, e non è un optional.

L’intervento del Garante Privacy
L’8 gennaio 2026, il Garante per la protezione dei dati personali è intervenuto con un provvedimento di avvertimento che riguarda direttamente Grok, ma anche ChatGPT, Clothoff e altri servizi analoghi.
Il messaggio è chiaro: l’utilizzo di questi strumenti per generare contenuti a partire da immagini o voci reali, compreso il cosiddetto “spogliamento” virtuale, può costituire una grave violazione della normativa privacy, con tutte le conseguenze sanzionatorie previste dal GDPR.
Il Garante ha richiamato anche i fornitori di questi servizi: progettare e sviluppare piattaforme che rendono “estremamente agevole l’uso illecito di immagini e voci di terze persone” non è più accettabile.
La responsabilità non è solo di chi usa, ma di chi mette lo strumento in mano a milioni di persone senza adeguate salvaguardie.
Chi decide le regole?
Questo episodio rivela una dinamica ormai strutturale.
Non è il legislatore a decidere in tempo reale cosa un’AI può fare, lo decide il livello di rischio percepito.
Siamo di fronte a “norme di fatto”: decisioni prese da privati, con applicazione globale e istantanea, senza processo democratico.
L’urgenza del danno e il timore di azioni legali costringono le piattaforme ad agire prima che arrivi il giudice.
E qui viene la domanda vera: chi decide l’uso accettabile?
Con quali garanzie?
Chi paga quando il danno è irreversibile?
Non basta aggiornare i termini di servizio, La tecnologia, senza direzione umana consapevole, tende al caos.
La responsabilità imposta dal rischio
Il caso Grok non è una storia pro o contro Elon Musk, è una storia su come funziona il mondo oggi, e non solo quello digitale.
Prima si lancia, poi si vede cosa succede, infine si corregge, ma solo quando arrivano i danni e i regolatori.
È lo stesso schema che abbiamo visto in altri settori.
Farmaci immessi sul mercato con iter accelerati, ritirati dopo che gli effetti avversi erano già diventati statistiche.
Edifici costruiti in deroga, crollati prima che qualcuno verificasse i calcoli strutturali.
Prodotti industriali commercializzati per decenni, dall’amianto ai PFAS, e poi banditi quando il danno sanitario era ormai diffuso e irreversibile.
Il percorso è sempre lo stesso: il rischio viene scaricato sulla collettività, il profitto resta privato e la correzione arriva solo quando il costo reputazionale o legale supera il vantaggio economico.
Nel digitale questo meccanismo è ancora più veloce e più invisibile.
Un deepfake non crolla come un ponte, non provoca un’intossicazione acuta, ma devasta vite, reputazioni, equilibri psicologici.
E quando ce ne accorgiamo, il danno è già fatto.
Il vero nome di questa governance è responsabilità imposta dal rischio.
L’AI non viene fermata quando è pericolosa in astratto, viene fermata quando diventa indifendibile, davanti ai tribunali, ai regolatori e alla nostra coscienza collettiva.
In fondo, la crescita tecnologica ci impone una crescita interiore parallela, dobbiamo imparare a maneggiare il fuoco prima di bruciare la casa.
🔔 Vuoi restare aggiornato ogni settimana su contenuti legali, attualità e consigli pratici?
Iscriviti gratuitamente a uno dei miei canali:
– 🟢 WhatsApp → https://avvocatonardini.it/whatsapp
– 🔵 Telegram → https://t.me/stefano_nardini
– 🔴 YouTube → https://www.youtube.com/@StefanoNardiniStudio

Autore: Avv. Stefano Nardini
Avvocato, esperto in diritto delle nuove tecnologie, privacy e sicurezza informatica. Opera da oltre 20 anni nella consulenza per imprese, professionisti ed enti pubblici su GDPR, compliance e innovazione digitale. Data Protection Officer e Privacy Officer certificato.
Si occupa inoltre di diritto civile e penale, con esperienza in contenzioso, contrattualistica, responsabilità civile, reati connessi all’ambito digitale (cybercrime, trattamento illecito dei dati) e difesa penale tradizionale.
Lavora sul fronte della prevenzione e della gestione pratica dei rischi, unendo competenza tecnica e attenzione ai principi di giustizia ed etica.
🔗 Scopri di più sull’autore
L’autore ha impiegato strumenti di intelligenza artificiale come supporto redazionale, curando personalmente la selezione, l’organizzazione e la verifica rigorosa dei contenuti.
Condividi, scegli il tuo social network!
NEWSLETTER
Ti è piaciuto questo articolo? Ricevi via email i nuovi contenuti su privacy, tecnologia e diritto digitale.
Niente spam, solo contenuti di valore.
Cancellazione immediata quando vuoi.
