ChatGPT e Giustizia: Il Caso di Firenze che Interroga la Deontologia Forense
Una riflessione necessaria sul ruolo dell’avvocato nell’era dell’intelligenza artificiale
L’intelligenza artificiale sta entrando nei palazzi di giustizia. Ma siamo pronti a gestirne responsabilmente le implicazioni?
Un errore processuale causato da un assistente virtuale. Sembra fantascienza, ma è accaduto davvero, nel cuore del sistema giudiziario italiano.
L’ordinanza del Tribunale delle Imprese di Firenze del 14 marzo 2025 segna un passaggio significativo per il sistema giuridico italiano. Oggetto del procedimento era un’azione cautelare per la tutela dei diritti d’autore e del marchio, ma nel corso del giudizio si è verificato un episodio che pone riflessioni profonde sull’uso dell’intelligenza artificiale nella prassi difensiva: la comparsa di costituzione di una delle parti richiamava sentenze della Corte di Cassazione in realtà inesistenti, generate da ChatGPT.

Il contesto giuridico e l’incidente processuale
Nel contesto di un procedimento per contraffazione e plagio di vignette satiriche stampate su t-shirt, il ricorrente aveva agito anche contro i rivenditori, chiedendo l’estensione delle misure cautelari concesse contro i produttori. Una delle parti resistenti, pur sostenendo l’assenza di mala fede, ha depositato una memoria difensiva contenente riferimenti giurisprudenziali inventati, generati da una collaboratrice tramite ChatGPT. Il Tribunale ha preso atto dell’accaduto, riconoscendo che l’uso dell’IA aveva portato a un errore materiale, ma ha anche rilevato il mancato controllo da parte del difensore.
Il punto di vista del Tribunale sull’impiego di ChatGPT
Nell’ordinanza, il Collegio ha escluso che l’errore fosse frutto di mala fede o finalizzato a influenzare il giudizio, ma ha sottolineato la necessità di un controllo umano. L’assenza di dolo non esime dall’obbligo professionale di verificare le fonti. La richiesta di condanna per lite temeraria ex art. 96 c.p.c. è stata rigettata per carenza di prova del danno e di abusività della condotta processuale.
Riflessioni giuridiche, deontologiche e normative
Dovere di controllo e responsabilità dell’avvocato
L’avvocato ha il dovere di verificare ogni elemento inserito in un atto processuale. L’uso di strumenti generativi come ChatGPT non può sostituire l’attività di analisi e riscontro da parte del difensore, in ossequio all’art. 12 del Codice Deontologico Forense (dovere di diligenza).
Il tema è stato oggetto anche di dibattito istituzionale: durante il G7 delle Avvocature, il Consiglio Nazionale Forense ha evidenziato la necessità di garantire l’etica e la supervisione umana nell’uso degli strumenti tecnologici nella professione legale.
Le “allucinazioni” dell’intelligenza artificiale e i rischi per il processo
Il fenomeno delle allucinazioni dell’IA è ben documentato: si tratta di contenuti plausibili ma non veritieri generati dal modello. Le IA generative come ChatGPT non consultano banche dati giurisprudenziali in tempo reale, ma producono risposte probabilistiche basate su un addestramento linguistico. Questo può portare alla creazione di sentenze mai esistite.
Nel processo civile, tali errori possono compromettere:
- l’equilibrio del contraddittorio;
- la percezione della giurisprudenza consolidata;
- la credibilità delle difese.

Verso un uso consapevole degli strumenti digitali
Il Tribunale ha sottolineato che, pur non costituendo abuso del processo, l’utilizzo disattento dell’IA pone interrogativi sull’etica processuale. La tecnologia va gestita come supporto e mai come scorciatoia.
L’AI Act e il ruolo dell’avvocato come “deployer”
Con l’adozione dell’AI Act da parte dell’Unione Europea, destinato ad entrare in vigore nel 2025, l’avvocato che utilizza strumenti di intelligenza artificiale nello svolgimento della sua attività professionale assume il ruolo di “utilizzatore” (deployer) secondo la definizione normativa.
L’avvocato “deployer” secondo l’AI Act
In tale veste, egli è chiamato a garantire l’impiego dell’IA nel rispetto dei principi di trasparenza, tracciabilità, affidabilità e supervisione umana.
Anche se strumenti come ChatGPT non rientrano sempre nelle categorie di sistemi ad “alto rischio”, l’obbligo generale di diligenza si rafforza quando l’output dell’IA può influenzare decisioni giuridiche o processuali.
In ottica compliance, diventa essenziale:
- implementare pratiche di verifica documentata;
- definire ruoli e responsabilità;
- assicurare la tracciabilità dei processi decisionali;
- mantenere sempre la supervisione umana.
Possibili linee guida per il futuro della professione legale
- Formazione mirata: Avvocati, praticanti e collaboratori di studio devono essere formati non solo sul funzionamento dell’IA generativa, ma anche sulle sue implicazioni giuridiche, deontologiche e sui limiti normativi applicabili.
- Policy e protocolli interni: È auspicabile che ogni studio legale si doti di protocolli scritti che disciplinino le modalità di utilizzo degli strumenti di IA, definendo ruoli, responsabilità, obblighi di verifica e tracciabilità delle fonti.
- Ruolo attivo delle istituzioni forensi: Ordini, consigli e scuole forensi dovrebbero promuovere linee guida condivise e favorire occasioni di aggiornamento continuo, anche attraverso corsi accreditati e osservatori permanenti sull’impatto dell’IA nel diritto.
- Etica e trasparenza: L’utilizzo dell’intelligenza artificiale nei procedimenti giudiziari deve essere sempre dichiarato nei limiti del possibile, favorendo la trasparenza e il rispetto del contraddittorio.
- Responsabilità e vigilanza: Ogni utilizzo di strumenti IA deve prevedere un controllo umano effettivo e tracciabile: il professionista ne resta comunque il responsabile ultimo, anche in presenza di errori generati dal sistema.
Solo così potremo trasformare la sfida dell’IA in un’occasione per riaffermare il valore umano della giustizia.
L’avvocato del futuro non è chi ignora l’IA, ma chi la domina con spirito critico.
La vera evoluzione non è tecnologica, ma culturale: nella capacità di integrare l’innovazione nel rispetto dei principi che fondano il diritto.
Una lezione sul confine tra innovazione e responsabilità
Il caso affrontato dal Tribunale di Firenze non è solo un monito, ma anche un’opportunità di crescita. L’intelligenza artificiale, se usata consapevolmente, può diventare un valido alleato del giurista. Tuttavia, la supervisione umana rimane imprescindibile.
Sta a noi, professionisti del diritto, tracciare la rotta. Non basta conoscere la tecnologia: serve guidarla. E farlo con coscienza.
La giustizia non può permettersi automatismi: ogni informazione va controllata, ogni fonte confermata. Perché nel diritto, la tecnologia è solo uno strumento. La responsabilità resta tutta umana.
Approfondisci:
- Ordinanza del Tribunale delle Imprese di Firenze del 14 marzo 2025
- https://www.opendotcom.it/pct-processo-civile-telematico/blog/allucinazioni-giurisprudenziali-ia-chatgpt-tribunale-firenze/18874
- https://ntplusdiritto.ilsole24ore.com/art/l-errore-chatgpt-memoria-difensiva-non-comporta-condanna-lite-temeraria-AG9QyXlD
- https://www.consiglionazionaleforense.it/web/cnf-news/-/24697-264
- https://www.mondoprofessionisti.it/interviste/ia-una-sfida-complessa-che-lavvocatura-deve-governare/?utm_source=chatgpt.com

Autore: Avv. Stefano Nardini
Avvocato, esperto in diritto delle nuove tecnologie, privacy e sicurezza informatica. Opera da oltre 20 anni nella consulenza per imprese, professionisti ed enti pubblici in materia di GDPR, compliance e innovazione digitale. Data Protection Officer e Privacy Officer certificato.
Questo articolo riflette l’esperienza maturata direttamente sul campo, nella gestione di casi reali in tema di identità digitale e protezione dei dati.
🔗 Scopri di più sull’autore
L’autore ha impiegato strumenti di intelligenza artificiale come supporto redazionale, curando personalmente la selezione, l’organizzazione e la verifica rigorosa dei contenuti.