L’Intelligenza Artificiale nel campo della giustizia: una prima analisi dell’AI Act

Il 1° agosto 2024 è entrato in vigore il Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024 che stabilisce regole armonizzate sull’Intelligenza Artificiale (noto anche come Regolamento sull’Intelligenza Artificiale o AI Act). Questo primo quadro giuridico globale sull’Intelligenza Artificiale rappresenta una pietra miliare nella regolamentazione delle tecnologie emergenti, con particolare attenzione all’impatto sui diritti fondamentali e sulla sicurezza dei cittadini europei.
Anche se le tempistiche di effettiva applicabilità di questa regolamentazione non sono propriamente vicine (per i sistemi ad alto rischio di cui ci si occupa nel presente articolo l’orizzonte è il 2026), è bene iniziare ad analizzare quali sono i punti più interessanti e potenzialmente critici di questa normativa. Nel contesto di tale analisi assume particolare rilevanza l’ambito della giustizia, considerata la delicatezza delle funzioni svolte e l’impatto diretto sui diritti fondamentali dei cittadini.
L’AI Act adotta un approccio basato sul rischio, che classifica i sistemi di Intelligenza Artificiale in diverse categorie: sistemi a rischio inaccettabile (vietati), sistemi ad alto rischio, sistemi a basso rischio e sistemi a rischio minimo. L’obiettivo delle norme è promuovere un’IA affidabile, garantendo che lo sviluppo e l’utilizzo di questi sistemi avvengano nel rispetto dei valori e dei diritti fondamentali dell’Unione europea.
Il regolamento europeo dedica in particolare l’articolo 6, paragrafo 2, alle regole di classificazione per i sistemi di IA ad alto rischio, stabilendo che “oltre ai sistemi di IA ad alto rischio di cui al paragrafo 1, sono considerati ad alto rischio anche i sistemi di IA di cui all’allegato III“.
Il rinvio diretto al suddetto allegato è quello che interessa per la presente trattazione, visto che al punto 8 (“Amministrazione della giustizia e processi democratici”) si trovano esplicitamente indicati «i sistemi di IA destinati a essere usati da un’autorità giudiziaria o per suo conto per assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie».
Inoltre, il Considerando 40 del regolamento chiarisce ulteriormente la ratio di questa classificazione, specificando che “È in particolare opportuno, […] classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati da un’autorità giudiziaria o per suo conto per assistere le autorità giudiziarie nelle attività di ricerca e interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti”. Il medesimo Considerando contiene però un’importante distinzione dal momento che precisa come non sia “opportuno estendere la classificazione dei sistemi di IA come ad alto rischio ai sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull’effettiva amministrazione della giustizia nei singoli casi“.
Questa disposizione trova un preciso appiglio normativo nell’articolo 6, paragrafo 3, il quale stabilisce infatti che “un sistema di IA di cui all’allegato III non è considerato ad alto rischio se non presenta un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale“.
Per quanto concerne il mondo giustizia è poi significativo come il Considerando in analisi preveda che “L’utilizzo di strumenti di IA può fornire sostegno al potere decisionale dei giudici o all’indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un’attività a guida umana“.
Questo principio trova ulteriore specificazione nell’articolo 14 dell’AI Act, che disciplina la “sorveglianza umana” dei sistemi ad alto rischio. Infatti, in base all’art. 6 par. 3 lett. d) dell’AI Act un sistema non è considerato ad alto rischio quando svolge un compito preparatorio per la valutazione pertinente.
Dato l’impianto normativo dell’AI Act si può dunque immaginare e considerare legittimo l’impiego dell’Intelligenza Artificiale:
- per attività di supporto amministrativo e organizzativo (anche in senso lato), come ad esempio quella di gestione delle tabelle di assegnazione dei procedimenti (e in questo caso non si tratterà verosimilmente neppure di attività ad alto rischio;
- per l’implementazione di strumenti di redazione degli atti (attività peraltro già ben avviata sulla consolle del magistrato anche in assenza di strumenti di IA)
- per la ricerca giurisprudenziale con l’utilizzo di sistemi per l’identificazione di precedenti e l’analisi della giurisprudenza consolidata. Il controllo e la paternità della decisionale finale rimarranno invece competenza esclusiva del magistrato.
È infine opportuno ricordare che i sistemi di Intelligenza Artificiale ad alto rischio sono soggetti a una serie di obblighi stringenti quali:
- l’implementazione di un sistema di gestione della qualità che garantisca la conformità ai requisiti del regolamento;
- la realizzazione di documentazione tecnica completa che descriva il sistema IA e il suo processo di sviluppo;
- la registrazione degli eventi che accadono durante il loro funzionamento (es. log-in, log-out);
- la garanzia di livelli appropriati di accuratezza, robustezza e cybersicurezza.
Inoltre, i sistemi devono possedere documentazione tecnica completa che descriva il sistema AI e il suo processo di sviluppo e, prima della loro immissione sul mercato, dovranno essere soggetti a valutazione d’ impatto sui diritti fondamentali (cd FRIA), come peraltro codificato dall’art. 27 dell’AI Act al fine di fornire ulteriori informazioni quali:
- una descrizione dei processi in cui il deployer (ovvero una persona fisica o giuridica, un’autorità pubblica, un’agenzia o un altro organismo che utilizza un sistema di IA sotto la propria autorità, tranne nel caso in cui il sistema di IA sia utilizzato nel corso di un’attività personale non professionale) utilizzerà il sistema di IA;
- una descrizione del periodo di tempo entro il quale ciascun sistema di IA ad alto rischio è destinato a essere utilizzato e con che frequenza;
- le categorie di persone fisiche e gruppi verosimilmente interessati dal suo uso nel contesto specifico;
- i rischi specifici di danno che possono incidere sulle categorie di persone fisiche o sui gruppi di persone individuati a norma della lettera c), del presente paragrafo tenendo conto delle informazioni trasmesse dal fornitore a norma dell’articolo 13;
- le misure da adottare qualora tali rischi si concretizzino, comprese le disposizioni relative alla governance interna e ai meccanismi di reclamo.
