17.10.2025 Icon

Intelligenza artificiale: il CSM e la nuova frontiera della giustizia digitale

L’adozione dell’intelligenza artificiale nei sistemi giudiziari rappresenta una delle sfide più delicate del XXI secolo.

L’automazione dei processi decisionali, la gestione dei dati giudiziari e l’analisi predittiva delle decisioni dei tribunali, pur sempre nel rispetto della tutela dei diritti fondamentali e trasparenza delle decisioni, potrebbero garantire una maggiore efficienza, ridurre i tempi del processo e uniformare la giurisprudenza?

La Delibera plenaria dell’8 ottobre 2025, adottata dal Consiglio Superiore della Magistratura, si inserisce in questo quadro complesso, delineando principi e raccomandazioni per un uso responsabile e costituzionalmente conforme dell’IA nell’amministrazione della giustizia.

L’obiettivo della delibera, come si vedrà di seguito, non è ostacolare l’innovazione, bensì garantirne un’integrazione coerente con i principi dello stato di diritto, salvaguardando la centralità della decisione umana e la piena tutela dei diritti dei cittadini.

Inquadramento normativo

Le istituzioni europee con il regolamento n. 1689/2024 (AI Act) sono intervenute incoraggiando l’uso dell’intelligenza artificiale, da parte degli Stati membri, compatibilmente con i principi e i diritti fondamentali dell’ordinamento europeo e di quelli nazionali.

Tra i settori più interessati dalla regolamentazione figura l’amministrazione della giustizia, data la rilevanza che l’uso dell’IA può avere sui diritti fondamentali.

Difatti, seguendo l’approccio già delineato dalla Carta etica europea sull’uso dell’IA nei sistemi giudiziari (CEPEJ, 2018), il regolamento include la giustizia tra i settori a rischio elevato, individuando come tali i sistemi di IA utilizzati da o per conto di autorità giudiziarie nel supporto dell’analisi dei fatti, interpretazione del diritto e applicazione della legge, nonché in ambito ADR.

Tuttavia, il regolamento prevede deroghe per attività che non comportano rischi significativi, ad esempio quando l’IA svolge compiti procedurali limitati, che non influenzano in modo sostanziale le decisioni.

Per i sistemi di IA ad alto rischio, il regolamento impone requisiti obbligatori a carico dei fornitori, tra cui: gestione dei rischi, qualità dei dati di addestramento, documentazione tecnica, tracciabilità e trasparenza, supervisione umana e cybersecurity.

Tali sistemi, pertanto, prima di essere immessi sul mercato o messi in servizio, dovranno necessariamente superare una valutazione di conformità che consiste in un controllo da parte di un organismo accreditato da un’autorità nazionale competente e conforme a requisiti di indipendenza, competenza e sicurezza.

In Italia, la legge sull’IA ha individuato tali autorità rispettivamente nell’AgID (Agenzia per l’Italia Digitale) e nell’ACN (Agenzia per la Cybersicurezza Nazionale).

Il Regolamento stabilisce che le autorità nazionali competenti debbano esercitare le proprie funzioni in modo indipendente, imparziale e privo di pregiudizi, salvaguardando i principi di obiettività e garantendo la corretta applicazione della normativa.

L’entrata in vigore dell’intero impianto regolamentare europeo è prevista per agosto 2026.

A partire da tale data, i magistrati potranno avvalersi, nell’esercizio dell’attività giudiziaria – ovvero nella ricerca e interpretazione dei fatti e del diritto, nonché nell’applicazione della legge a casi concreti – esclusivamente di sistemi di IA dotati di marcatura CE, che abbiano superato positivamente la valutazione di conformità e siano iscritti nella banca dati dell’Unione Europea.

Con riguardo al nostro ordinamento, il Parlamento ha avviato l’attuazione delle prescrizioni europee in materia di giustizia digitale.

Difatti, con la Legge n. 132/2025, in particolare con l’art. 15, è stata attribuita al Ministero della Giustizia la regolamentazione dell’impiego dei sistemi di IA per l’organizzazione dei servizi giudiziari e per la semplificazione delle attività amministrative e, al contempo, ribadita la centralità del ruolo del magistrato nelle decisioni interpretative e valutative, anche in presenza di strumenti di IA.

In vista dell’entrata in vigore del regolamento europeo, prevista come detto per agosto 2026, possiamo, pertanto, individuati tre ambiti di riflessione:

  • Utilizzo dell’IA da parte dei magistrati nella fase transitoria: fino al 2026, potranno essere impiegati esclusivamente i sistemi autorizzati dal Ministero, in quanto quelli disponibili online non soddisfano i requisiti di sicurezza previsti per i sistemi ad alto rischio;
  • Applicabilità della deroga prevista dall’art. 6, par. 3, dell’AI Act: tale norma esclude gli obblighi per i sistemi ad alto rischio qualora l’IA sia utilizzata per compiti procedurali, supporto post-attività umana, rilevazione di schemi o preparazione di valutazioni sotto supervisione umana;
  • Prospettiva di utilizzo dell’IA post 2026: previsione di unmonitoraggio sperimentale delle applicazioni in fase di studio e di utilizzo, realizzazione di un sistema di IA interno al sistema giustizia, auspicabilmente operativo entro agosto 2026 e gestito dai magistrati ordinari.

Le raccomandazioni del CSM

Il Consiglio Superiore della Magistratura raccomanda di conformarsi all’impiego dei sistemi di intelligenza artificiale entro i limiti stabiliti dalla normativa comunitaria, escludendo l’utilizzo non autorizzato di sistemi di IA nell’attività giudiziaria in senso stretto.

Resta tuttavia ferma la possibilità di sviluppare, in ambienti protetti e sperimentali, applicazioni anche in ambiti giudiziari, purché sia garantita l’anonimizzazione e tracciabilità dei dati, come del resto già avviene, tra gli altri, presso i tribunali di Bologna, Catania e Milano.

Permane, inoltre, la possibilità di impiegare sistemi di IA per attività amministrative e organizzative strumentali all’esercizio della funzione giudiziaria, esclusivamente mediante strumenti forniti dal Ministero della Giustizia, che garantiscono la riservatezza e l’esclusione dell’utilizzo dei dati del singolo magistrato, pur presenti nel dominio giustizia, ai fini dell’addestramento dei sistemi.

Per un utilizzo corretto dell’intelligenza artificiale è, pertanto, necessario adottare una serie di cautele operative, così individuate dal CSM: “sovranità dei dati e delle informazioni” cioè l’inaccessibilità a soggetti terzi dei dati e delle informazioni generate dall’IA; “protezione dei dati” in forza della quale non devono essere immessi dati sensibili negli applicativi informatici; “qualità dei dati” volta a garantire la verifica dei risultati ottenuti dall’IA; “supervisione” da parte dell’utente dell’affidabilità dell’output e del rispetto della normativa in materia di diritti fondamentali e, infine, “responsabilità individuale” di ogni magistrato,  il quale è tenuto a un utilizzo consapevole e conforme degli strumenti di IA, a partire dall’obbligo di informazione e partecipazione alla formazione che sarà erogata sul tema.

Il ruolo del CSM

Conseguentemente, per il CSM l’utilizzo della IA dovrà avvenire nel pieno rispetto delle normative europee e nazionali, tra cui l’AI Act, il Regolamento Generale sulla Protezione dei Dati (GDPR), nonché le disposizioni in materia di proprietà intellettuale, sicurezza, salute, benessere e tutela dei diritti fondamentali.

L’IA non dovrà, inoltre, mai sostituire il pensiero critico del magistrato, né compromettere l’originalità del suo contributo giuridico, bensì rappresentare uno strumento di supporto trasparente e verificabile, il cui output sia sempre sottoposto a riesame umano.

Il Consiglio ritiene, pertanto, fondamentale, in primo luogo, promuovere la consapevolezza dei magistrati, i quali devono conoscere la natura probabilistica degli output generati dall’IA, i rischi di errore, bias, nonché le tecniche di verifica e controllo; in secondo luogo, tutelare il tempo della decisione, poiché l’IA deve contribuire ad aiutare nella ricerca giuridica e non solo a incrementare l’efficienza e, infine, riaffermare la centralità dell’esperienza processuale, dal momento che il processo giudiziario è un’esperienza umana insostituibile, fondata su oralità, presenza e contraddittorio.

Alla luce delle considerazioni svolte, il Consiglio respinge l’idea di limitare il giudizio a una mera interazione digitale, sottolineando che la decisione nasce dall’interazione viva e concreta tra giudice, parti e prove.

In Conclusione

La Delibera plenaria dell’8 ottobre 2025 segna un passaggio decisivo nella definizione di un quadro etico-giuridico per l’uso dell’intelligenza artificiale nella giustizia italiana.

Essa riafferma che la tecnologia non può prescindere dai valori costituzionali che fondano l’amministrazione della giustizia, quali indipendenza, imparzialità, trasparenza e tutela dei diritti fondamentali.

L’IA può contribuire a rendere il sistema più efficiente e coerente, ma deve farlo nel pieno rispetto della dignità della persona e del principio della responsabilità del giudice.

La giustizia del futuro sarà tanto più giusta quanto più saprà restare umana?

Non ci resta che attendere i successivi sviluppi sul punto.

Autore Roberto Bonofiglio

Associate

Milano

r.bonofiglio@lascalaw.com

Desideri approfondire il tema Intelligenza Artificiale ?

Contattaci subito

Autore Emanuele Mancuso

Trainee

Milano

e.mancuso@lascalaw.com