La recente legge n. 132 del 2025 (Disposizioni e deleghe al Governo in materia di intelligenza artificiale) promulgata a poco più di un anno dall’approvazione del Regolamento europeo 2024/1689 (c.d. AI Act) - il quale ad oggi è solo parzialmente in vigore - può essere apprezzata sotto molti profili, ma apre anche una serie di interrogativi. In queste brevi riflessioni, richiamerò molto sinteticamente i profili generali, positivi e negativi, e mi concentrerò su una delle disposizioni più problematiche: l’art. 15, che riguarda l’utilizzo dell’IA da parte dei magistrati e in generale del “sistema-giustizia”.
La disciplina italiana si inserisce nell’ambito di una normativa europea direttamente applicabile, che viene richiamata, fin dall’art. 1. Tuttavia, ciò non basterà indubbiamente a evitare problemi interpretativi, dal momento che, a una prima lettura, l’ambito di molte norme coincide, almeno parzialmente, e in vari casi il testo italiano pare dire qualcosa di più. Sappiamo che in caso di antinomia fra norma interna e norma europea, quest’ultima sarà direttamente applicabile, ma nella realtà le cose non sono mai così semplici.
In linea generale, la disciplina italiana sposa pienamente l’impostazione regolatoria europea e la filosofia dello sviluppo di una IA trasparente, governata dall’uomo e pienamente conforme ai diritti fondamentali, tuttavia, rispetto all’AI Act europeo, viene a mio avviso evidenziato meglio il profilo di opportunità e di progresso che offre lo sviluppo algoritmico e agentico orientato ai principi fondamentali. Gli stessi principi sono precisati molto meglio nella legge italiana: si parla testualmente di “parità di genere”, di impatto sulla “democrazia”, la “disabilità” viene menzionata nell’ambito dei principi generali all’art. 3, comma 7, e, nell’art. 7, con un riferimento anche nella rubrica.
Da apprezzare inoltre la focalizzazione con norme dettagliate e deleghe al Governo su tutti i settori strategici e di impatto pubblico e sociale, come quello della salute e sanità, della pubblica amministrazione, del diritto d’autore, delle professioni intellettuali, della ricerca, del lavoro e della giustizia.
Quest’ultimo è disciplinato dall’art. 15, che si compone di due parti, una (il primo comma), dedicata all’impiego degli strumenti di IA da parte dei magistrati; la seconda (secondo, terzo e quarto comma), incentrata invece sull’impiego di ordine organizzativo e sulla formazione “tecnica” da somministrare ai magistrati e anche al personale ausiliario.
Entrambi i profili presentano aspetti critici, rilevati anche dal CSM in una recente delibera, approvata dal plenum lo scorso 8 ottobre (“Raccomandazioni sull’uso dell’intelligenza artificiale nell’amministrazione della giustizia”) su cui mi concentrerò a breve.
Il primo profilo, quello dell’impiego da parte dei magistrati degli strumenti di intelligenza artificiale, deve essere affrontato alla luce di una letteratura e di una casistica ampia e conosciuta, che può orientare anche nell’applicazione della norma.
Nell’art. 1, comma, 1, della l. n. 132 del 2025 si precisa che la responsabilità sulla “interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti” rimane in capo al magistrato.
Non è una precisazione di poco conto: sappiamo che proprio negli Stati Uniti è stato studiato e scoperto l’impatto discriminatorio dell’utilizzo di sistemi di giustizia predittiva (emblematico è il caso Loomis v. Wisconsin che ha riguardato la contestazione dell’utilizzo di un software per la valutazione del rischio di recidiva di un soggetto condannato ad una pena di sei anni di reclusione. Eric Loomis sosteneva che l’opacità dell’algoritmo e i potenziali pregiudizi violavano il suo diritto a un giusto processo. Gli appelli contro la sentenza di condanna venivano rigettati, ma veniva limitato l’uso del software a determinate condizioni. Il caso ha sollevato importanti questioni sull’equità e la trasparenza della giustizia predittiva). Anche in Italia proprio di recente, è stato deciso un caso dove un avvocato pretendeva di addebitare la responsabilità allo stesso algoritmo (si tratta della decisione del Tar Lombardia n. 3348 del 21 ottobre 2025, che ha rilevato che nel ricorso presentato era citata una giurisprudenza inesistente. Sul punto venivano chieste spiegazioni all’avvocato che rispondeva che la ricerca dei precedenti citati era stata effettuata tramite strumenti di intelligenza artificiale).
Alla luce di tutto ciò, come sarà possibile verificare in concreto la formazione corretta della decisione da parte di un magistrato? E come sarà possibile verificare quali strumenti algoritmici vengono utilizzati e se gli stessi strumenti siano conformi alle regole europee e italiane che vietano un utilizzo contrario ai diritti fondamentali e prevedano una valutazione di impatto (art. 27 AI Act)?
Anche la parte organizzativa presenta indubbie criticità, dal momento che affida (commi 2, 3 e 4) al solo Ministero della Giustizia aspetti sia organizzativi di tipo tecnico (che a lui spettano ex art. 110 Cost.), sia di formazione dei magistrati e del personale ausiliario. La formazione tecnica in campo algoritmico però non è affatto neutra e noi sappiamo che tale formazione è stata affidata nel 2005 dal legislatore, in ossequio al principio costituzionale di autonomia e indipendenza, alla Scuola superiore della Magistratura, struttura autonoma che approva però le linee e i corsi di formazione sulla base di linee programmatiche sulla formazione pervenute dal CSM e che già organizza corsi aventi l’IA e il suo utilizzo nell’attività interpretativa del magistrato.
A pochi giorni dall’approvazione della legge, con Delibera plenaria dell’8-10-2025, il CSM ha già adottato un documento dal titolo: “Raccomandazioni sull’uso dell’intelligenza artificiale nell’amministrazione della giustizia”. È evidente, dunque, la necessità per l’organo di governo autonomo della magistratura di rivendicare immediatamente, sia pure con una delibera di supporto e integrazione, il proprio ruolo centrale nella fase di trasformazione e implementazione di un ambito che potrebbe trasformare profondamente il modo di operare del giudice e anche la stessa fisionomia del processo.
Il documento è complesso e parte da una consapevolezza del quadro regolatorio e delle potenzialità e rischi dell’impiego di strumenti di intelligenza artificiale, in generale, e, nello specifico, per il mondo della giustizia.
Lo spirito di fondo appare quello di chiarire come sia il comma 1 dell’art. 15 sulla responsabilità del magistrato per l’interpretazione e applicazione della legge, la valutazione dei fatti e delle prove e per l’adozione di provvedimenti, sia i commi 2, 3 e 4, che affidano al Ministero della Giustizia la responsabilità della formazione e dell’organizzazione dell’impiego dell’IA, sia da parte dei giudici che del personale ausiliario, necessitino fin da subito una interlocuzione e un ruolo del CSM.
Nel documento, infatti, si chiariscono molto bene le attività che rimarrebbero consentite, ma solo se soggette a supervisione umana.
Non potendo in questa sede esporre in modo analitico tutti i punti delle “raccomandazioni”, ci limitiamo ad osservare, su un piano generale, due aspetti.
In primo luogo, la legge, affidando al Ministero della Giustizia il ruolo di formazione della stessa magistratura sul corretto utilizzo dei sistemi di intelligenza artificiale, potrebbe in astratto, come abbiamo appena messo in evidenza, sollevare qualche dubbio in ordine a uno sconfinamento in un campo riservato all’organo di governo autonomo. In secondo luogo, il CSM, intervenendo con “direttive” sul modo e i criteri nell’ambito dei quali il Ministero dovrebbe operare, sembrerebbe non mettere in discussione la dubbia competenza del Ministro della Giustizia, volendo tuttavia al contempo indirizzarne l’operato. Non sarà semplice risolvere i problemi in concreto.
Un altro aspetto, poi, a mio avviso suscita interrogativi: sembra che il CSM affidi alla legge italiana un effetto “transitorio” (si veda in particolare il punto 3 delle raccomandazioni su “quale uso può essere fatto dell’IA da parte dei magistrati italiani, in attesa dell’entrata in vigore delle disposizioni europee previste per l’agosto 2026”). In realtà, se è sicuramente vero che, alla luce dei principi enunciati dalla Corte costituzionale fin dalla sentenza n. 170 del 1984, in caso di contrasto fra norma interna e norma europea direttamente applicabile, sia sempre quest’ultima a dover trovare applicazione, non possiamo tacere del fatto che la legge italiana riempie anche di significati precisi quelle norme europee dal contenuto ampio e generico, in molti casi aggiungendo anche altre e diverse prescrizioni. La legge italiana è già in vigore e il problema del ruolo nella formazione e nella possibilità di applicazione dell’IA da parte di tutto il sistema giustizia è già realtà.
Molto interessante e attuale si presenta, nelle raccomandazioni, l’insistenza sulla necessità di creare un sistema “interno”, che sia in grado di garantire aspetti cruciali per la tutela dei diritti: la sovranità dei dati e delle informazioni; la protezione dei dati; la qualità dei dati; la supervisione; la responsabilità individuale.
Altro aspetto molto importante nella comprensione di come il magistrato dovrà utilizzare strumenti algoritmici e “agentici” è l’ultimo profilo esaminato al punto 5 delle già menzionate raccomandazioni del CSM, dove si riafferma la centralità dell’esperienza processuale, definita come “esperienza umana insostituibile”.
Si precisa, sotto questo profilo, in modo chiarissimo che “il Consiglio si adopererà, pertanto, per impedire la ‘despazializzazione del giudizio’, ossia la riduzione del processo a mera interazione digitale, riaffermando che la decisione nasce da una relazione viva tra giudice, parti e prove, in un tempo e in uno spazio che ne garantiscano serietà, pubblicità e responsabilità”.
Infine, si sottolinea l’importanza, in questa fase dell’adozione e dell’adesione a codici di condotta, della formazione e audit continui e anche delle “necessarie interlocuzioni con l’avvocatura per una valutazione e una disciplina uniforme delle ricadute dell’utilizzo dell’IA in ambito professionale”.
In conclusione, pur cercando meritoriamente di “normare” l’impiego da parte del giudice e del “sistema giustizia” degli strumenti di IA, non c’è dubbio che i problemi rimangano tutti aperti e che le soluzioni dovranno essere cercate, e sperabilmente trovate, caso per caso, necessitando di una stretta collaborazione fra tutti i poteri dello Stato, per riuscire a governare efficacemente lo strumento, senza esserne travolti.
Visualizza questo commento in PDF raccomandazioni CSM TAR 3054/2025
Marilisa D’Amico, 28 ottobre 2025




