Intelligenza Artificiale e responsabilità aggravata nella redazione degli atti giudiziari

L’ingresso dell’Intelligenza Artificiale generativa nell’attività dell’avvocatura rappresenta una delle più profonde trasformazioni per la professione. La capacità di questi sistemi di produrre testi complessi, sintetizzare norme e generare argomentazioni giuridiche offre opportunità di efficienza apparentemente senza precedenti, che vanno però inquadrate in una corretta cornice normativa. La questione assume particolare rilevanza soprattutto alla luce dell’art. 13, I comma, della legge n. 132 del 2025, che circoscrive l’utilizzo dei sistemi di Intelligenza Artificiale nelle professioni intellettuali “al solo esercizio delle attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera“.
Tale disposizione ribadisce infatti il principio della prevalenza dell’attività intellettuale umana rispetto all’automazione tecnologica, e può certamente essere interpretata nel senso che l’AI non può sostituire totalmente l’apporto professionale dell’avvocato nella formazione dell’atto difensivo.
Ad arricchire il dibattito sul tema è recentemente intervenuta la giurisprudenza di merito, che si è trovata ad affrontare casi in cui si è discusso proprio dell’utilizzo dell’Intelligenza Artificiale generativa per la redazione di atti giudiziari; nello specifico, il tema è stato affrontato nel suo aspetto deteriore e cioè dal punto di vista del cattivo uso di questa tecnologia, asseritamente al fine di redigere difese totalmente infondate e in grado di configurare ipotesi di aggravata ex art. 96 c.p.c.
I casi di responsabilità aggravata: Latina e Torino
Due pronunce recentissime –Tribunale di Latina, 23 settembre 2025, n. 1037, e Tribunale di Torino, 16 settembre 2025, n. 2120 (entrambe reperibili sulla Banda dati pubblica del merito, consultabile attraverso il portale dei servizi telematici) sono state particolarmente severe nei confronti del cattivo impiego dell’Intelligenza Artificiale nella redazione degli atti giudiziari.
In entrambi i giudizi, si è riscontrato che gli atti risultavano privi di collegamento con la fattispecie concreta e composti da un insieme disorganico di citazioni giurisprudenziali e normative.
Il Tribunale di Latina ha ritenuto “evidente l’utilizzo di strumenti di intelligenza artificiale”, desumendolo dalla “scarsa qualità degli scritti difensivi” e dalla “mancanza di pertinenza o rilevanza degli argomenti”, tali da configurare un comportamento processuale abusivo. Da ciò è scaturita la condanna ex art. 96, commi 3 e 4, c.p.c.
Sulla stessa linea il Tribunale di Torino, che ha qualificato come “manifestamente infondato” il ricorso “redatto col supporto dell’intelligenza artificiale”, ritenendo la parte attrice colpevole, quantomeno, di colpa grave.
Le due sentenze approdano dunque a conclusioni simili ma paiono seguire percorsi argomentativi differenti; il tribunale laziale pare desumere l’utilizzo di strumenti di Intelligenza Artificiale dalla scarsa qualità degli scritti difensivi mentre il tribunale piemontese inserisce tra virgolette la locuzione relativa alla redazione del ricorso con ausilio dell’AI, come se la circostanza fosse emersa in corso di causa. Nel primo caso ci si troverebbe pertanto di fronte a una deduzione mentre nel secondo ci sarebbe stato un accertamento effettivo.
Ferma dunque la tematica della condanna per responsabilità aggravata, alla sentenza del tribunale di Latina si può muovere una prima critica sulla base della considerazione che certamente non esiste corrispondenza biunivoca tra redazione di scritti difensivi di scarsa qualità e privi di pertinenza e utilizzo dell’intelligenza artificiale. L’utilizzo consapevole di questi strumenti e la pratica processuale rivelano infatti che è possibile scrivere atti ben strutturati utilizzando software di AI e che è ben possibile redigere ricorsi raffazzonati senza il minimo ausilio tecnologico.
Il tema al centro del giudizio non pare essere dunque l’utilizzo dell’Intelligenza Artificiale per la redazione degli atti giudiziari, bensì il cattivo utilizzo di questa tecnologia; un cattivo utilizzo in grado di condurre alla responsabilità aggravata ex art. 96 c.p.c.
In questo contesto, i software di Intelligenza Artificiale si pongono pertanto come mero strumento in grado di agevolare una condotta contraria alla buona fede processuale ed è questo aspetto che viene sanzionato, non il ricorso alla tecnologia. Non è dunque l’uso dell’Intelligenza Artificiale che porta alla condanna ex art. 96 c.p.c. ma la ricorrenza degli estremi previsti dalla fattispecie, ovvero: a) che si sia comunque in presenza di una lite temeraria; b) che vi sia un danno da ritenere; c) che vi sia nesso di causalità tra il danno e la lite temeraria.
Il caso delle “allucinazioni”: Firenze
È giunto a conclusioni diverse il Tribunale delle Imprese di Firenze, che, con l’ordinanza 14 marzo 2025 (anch’essa consultabile nella baca dati sopra citata), ha affrontato un caso di citazione di precedenti giurisprudenziali inesistenti, generati da un software di AI.
Il difensore di una delle parti aveva inserito nel proprio atto numeri di sentenze “fantasma”, prodotti da un sistema di AI generativa (ChatGPT). La controparte aveva chiesto la condanna per responsabilità aggravata, sostenendo la violazione dei doveri di correttezza e verità processuale.
Il collegio fiorentino ha escluso l’applicazione dell’art. 96 c.p.c., non rilevando un caso di dolo o colpa grave e sottolineando che la mera inesattezza tecnica dovuta a un errore informatico non integra di per sé un abuso processuale.
Incidentalmente i giudici fiorentini hanno anche rilevato che l’errore era riconducibile a una collaboratrice di studio che aveva utilizzato il programma senza la consapevolezza del patrocinatore. È peraltro evidente che tale osservazione è di per sé priva di rilevanza ai fini della decisione; un’eventuale condanna ex art. 96 c.p.c. non sarebbe stata di certo evitata adducendo l’utilizzo dell’Intelligenza Artificiale da parte del praticante di studio, posto che il dominus risponde dell’operato dei suoi collaboratori.
