Deepfake: diritto, rischi e sfida culturale
Un tempo bastava dire: “l’ho visto con i miei occhi”.
Oggi quella certezza non esiste più. I deepfake – contenuti multimediali generati tramite intelligenza artificiale – hanno reso possibile simulare volti, voci e gesti con una fedeltà sorprendente.
Ciò che vediamo potrebbe non corrispondere alla realtà.
Non si tratta di un fenomeno marginale: è un tema che tocca la vita quotidiana, il diritto, l’economia e la fiducia sociale.
Come nascono i deepfake
Alla base dei deepfake troviamo le reti neurali generative, in particolare le GAN (Generative Adversarial Networks).
Una rete “creativa” produce immagini o suoni, mentre una rete “critica” ne valuta la credibilità, migliorando il risultato fino a renderlo indistinguibile dal reale.
In passato servivano grandi quantità di dati, ma oggi bastano poche immagini o registrazioni vocali per ottenere un risultato convincente. Nuove piattaforme, come Veo 3 di Google DeepMind, Sora 2 di OpenAI, sono capaci di creare video realistici partendo da semplici istruzioni testuali.
La democratizzazione di questi strumenti apre a scenari innovativi, ma anche a rischi diffusi: la barriera d’ingresso si è abbassata, e non solo ricercatori o professionisti, ma chiunque può produrre un contenuto manipolato.
Rischi e conseguenze pratiche
Il potenziale di abuso è evidente.
I deepfake hanno già mostrato la loro capacità di produrre conseguenze molto concrete e differenziate in vari ambiti.
Nel settore finanziario, un contenuto video apparentemente autentico che mostri un amministratore ammettere il fallimento della propria azienda può scatenare in pochi minuti un crollo dei titoli azionari, con danni enormi non solo agli investitori ma anche ai lavoratori e ai clienti. In passato simili crisi richiedevano giorni di voci e indiscrezioni: oggi bastano pochi secondi di un filmato manipolato.
Sul piano della politica internazionale, immagini o registrazioni falsificate possono essere utilizzate come strumenti di propaganda per alimentare conflitti, destabilizzare governi o screditare leader politici. Basti pensare all’impatto che un finto annuncio di guerra, diffuso sui social senza verifiche preventive, potrebbe avere sull’opinione pubblica e sulla sicurezza globale.
Nella vita privata il fenomeno assume contorni ancora più delicati.
Sempre più persone, in particolare donne, si trovano vittime di pornografia non consensuale generata artificialmente: foto e video creati senza che siano mai realmente avvenuti, ma capaci di compromettere in modo irreparabile la dignità personale e i rapporti sociali e lavorativi.
Infine, non meno gravi sono le truffe digitali.
Grazie alla clonazione vocale, malintenzionati possono telefonare spacciandosi per un familiare, riproducendo timbro e inflessione in modo quasi indistinguibile dal reale, per estorcere denaro o informazioni riservate.
Episodi simili sono già stati documentati, a dimostrazione che non si tratta di scenari teorici ma di rischi attuali e diffusi.
Le conseguenze complessive sono tangibili: reputazioni compromesse, patrimoni in pericolo, istituzioni delegittimate e un generale disorientamento collettivo.
Il quadro giuridico: tra norme esistenti e nuove fattispecie
Già prima delle ultime riforme, l’ordinamento italiano consentiva di reagire a condotte legate ai deepfake attraverso una combinazione di rimedi civili e penali.
Ad esempio, sul piano civile, era possibile agire per il risarcimento dei danni, patrimoniali e morali, sulla base dell’art. 2043 del codice civile: un deepfake che ledessse immagine o reputazione poteva essere considerato un fatto illecito generatore di obbligo risarcitorio.
Sul piano penale gli strumenti non mancavano, pur essendo frammentati. Un video manipolato che attribuisse a una persona fatti non veri rientrava nella fattispecie di diffamazione (art. 595 c.p.), mentre se le accuse false riguardavano reati si configurava addirittura la calunnia (art. 368 c.p.). Se invece il contenuto fosse stato utilizzato per ottenere vantaggi economici, come nelle truffe basate su voci sintetiche, la norma di riferimento era l’art. 640 c.p.. A ciò si aggiungevano casi di sostituzione di persona (art. 494 c.p.) o di atti persecutori (art. 612-bis c.p.), qualora la manipolazione fosse diretta a molestare, intimidire o perseguitare una vittima.
Questi riferimenti mostrano come, anche prima della nascita di una norma ad hoc, il diritto italiano potesse già intervenire, pur con strumenti nati per epoche e contesti diversi.

La crescente pericolosità del fenomeno ha spinto però il legislatore a intervenire con una previsione ad hoc,approvata dal Parlamento. Con l’introduzione dell’art. 612-quater c.p. (Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale), è stato tipizzato per la prima volta in Italia un reato specifico legato ai deepfake: la diffusione, senza consenso, di contenuti manipolati tramite intelligenza artificiale e idonei a trarre in inganno.
La pena prevista è la reclusione da uno a cinque anni, che può aumentare in presenza di aggravanti, come nei casi in cui la vittima sia particolarmente vulnerabile oppure quando l’uso del deepfake riveli una finalità insidiosa, ad esempio ostacolare il diritto di difesa o incidere sul libero esercizio delle funzioni pubbliche. Dal punto di vista penalistico, la norma ha un duplice significato: da un lato chiarisce l’applicabilità del diritto penale a fenomeni tecnologici prima intercettati solo indirettamente, dall’altro sancisce il riconoscimento dei deepfake come minaccia autonoma, sottraendoli all’alveo residuale dei reati comuni e collocandoli tra le nuove forme di criminalità informatica.
Dimensione etica e culturale
La questione non è solo giuridica. Quando tutto può essere falsificato, la fiducia sociale entra in crisi.
Alcuni rischiano di cadere in qualsiasi inganno, altri diventano scettici al punto da non credere più a nulla.
Entrambe le derive sono pericolose: senza fiducia non c’è democrazia né convivenza civile.
Occorre quindi promuovere educazione digitale e pensiero critico. Riconoscere un deepfake richiede attenzione a dettagli sottili: incoerenze nelle ombre, movimenti innaturali delle labbra o degli occhi, anomalie nelle mani. Oltre a questo tipo di osservazione visiva, può essere utile ricorrere ad altri strumenti di verifica. Ad esempio, controllare i metadati di un file consente di capire se il materiale è stato alterato o ricreato di recente.
Esistono inoltre piattaforme di fact-checking e software di analisi come InVID, Deepware Scanner o Sensity AI, pensati proprio per smascherare contenuti manipolati e diffusi in rete.
A ciò si aggiunge un approccio più tradizionale ma sempre valido: confrontare l’informazione sospetta con fonti ufficiali e canali istituzionali, in modo da non affidarsi mai a un solo contenuto isolato.
Non esistono strumenti perfetti, ma questi accorgimenti riducono la probabilità di cadere in inganno.
I deepfake ci costringono a un cambio di prospettiva: non possiamo più accettare immagini e video come prove assolute.
Servono regole giuridiche mirate, responsabilità individuale e, soprattutto, una rinnovata cultura della verità.
La sfida più grande è umana: recuperare la capacità di distinguere ciò che è autentico, non affidandosi solo agli algoritmi ma alle relazioni reali e alla consapevolezza critica.
FAQ – Domande frequenti sui deepfake
Creare un deepfake è sempre illegale?
No. Se il contenuto è utilizzato per fini leciti (ad esempio satira, parodia, ricerca), non vi è reato. Diventa illecito quando provoca un danno ingiusto o viola diritti altrui.
Posso chiedere la rimozione di un mio deepfake da una piattaforma online?
Sì. In base al Digital Services Act europeo, le piattaforme devono rimuovere tempestivamente contenuti illegali o dannosi segnalati dagli utenti.
I deepfake possono essere utilizzati come prove in tribunale?
Solo con estrema cautela. La loro manipolabilità rende necessarie verifiche tecniche approfondite per stabilire l’autenticità.
Quali strumenti pratici posso usare per verificare un video sospetto?
Oltre a osservare dettagli incoerenti, si possono utilizzare software di analisi come InVID o servizi di fact-checking gestiti da redazioni giornalistiche.
Cosa rischia chi diffonde un deepfake illecito in Italia?
Con l’art. 612-quater c.p. si rischia la reclusione da 1 a 5 anni, oltre ad altre sanzioni civili e penali legate alle specifiche conseguenze del contenuto.
🔔 Vuoi restare aggiornato ogni settimana su contenuti legali, attualità e consigli pratici?
Iscriviti gratuitamente a uno dei miei canali:
– 🟢 WhatsApp → https://avvocatonardini.it/whatsapp
– 🔵 Telegram → https://t.me/stefano_nardini
– 🔴 YouTube → https://www.youtube.com/@StefanoNardiniStudio

Autore: Avv. Stefano Nardini
Avvocato, esperto in diritto delle nuove tecnologie, privacy e sicurezza informatica. Opera da oltre 20 anni nella consulenza per imprese, professionisti ed enti pubblici su GDPR, compliance e innovazione digitale. Data Protection Officer e Privacy Officer certificato.
Si occupa inoltre di diritto civile e penale, con esperienza in contenzioso, contrattualistica, responsabilità civile, reati connessi all’ambito digitale (cybercrime, trattamento illecito dei dati) e difesa penale tradizionale.
Lavora sul fronte della prevenzione e della gestione pratica dei rischi, unendo competenza tecnica e attenzione ai principi di giustizia ed etica.
🔗 Scopri di più sull’autore
L’autore ha impiegato strumenti di intelligenza artificiale come supporto redazionale, curando personalmente la selezione, l’organizzazione e la verifica rigorosa dei contenuti.
Condividi, scegli il tuo social network!
NEWSLETTER
Ti è piaciuto questo articolo? Ricevi via email i nuovi contenuti su privacy, tecnologia e diritto digitale.
Niente spam, solo contenuti di valore.
Cancellazione immediata quando vuoi.

