Il Consiglio Superiore della magistratura (CSM), con la delibera dell'8 ottobre 2025, ha aapprovato delle raccomandazioni sull'uso dell'intelligenza artificiale nell'amministrazione della giustizia.
Il provvedimento nasce dall’esigenza di governare l’introduzione dell’intelligenza artificiale nella giustizia, salvaguardando autonomia e indipendenza del giudice, diritti fondamentali, trasparenza e verificabilità degli esiti. L’obiettivo non è frenare l’innovazione, ma incanalarla entro presìdi chiari: l’IA supporta, non sostituisce il ragionamento del magistrato.
Con l’AI Act l’uso dell’IA a supporto dell’autorità giudiziaria rientra, in linea generale, tra i sistemi ad alto rischio. Ciò comporta requisiti stringenti su gestione dei rischi, qualità dei dati, documentazione e tracciabilità, trasparenza, sorveglianza umana, accuratezza e cybersicurezza.
La Legge 23 settembre 2025, n. 132, all’art. 15, ribadisce che le scelte su interpretazione e applicazione della legge, valutazione dei fatti e delle prove e provvedimenti restano sempre in capo al magistrato, mentre al Ministero della Giustizia spetta disciplinare gli impieghi per organizzazione dei servizi, semplificazione del lavoro e attività amministrative.
Il documento individua criticità note: esposizione dei dati (anche verso soggetti extra-UE), profilazioni e reidentificazione, output fallaci (allucinazioni, sycophancy, bias), opacità degli algoritmi e possibili profilazioni dell’attività giudiziaria tramite repository non governati. Ne discende un imperativo: ogni risultato prodotto dall’IA deve poter essere controllato, contestato e replicato su fonti ufficiali.
Nel periodo che porta all’entrata a regime dell’AI Act, l’uso dell’IA nell’attività giurisdizionale è consentito solo per i sistemi autorizzati dal Ministero e collocati nel dominio giustizia, con tracciabilità dei processi e sorveglianza umana. Resta precluso l’impiego di servizi generalisti per attività decisionali o istruttorie e l’immissione di atti o dati sensibili in piattaforme non istituzionali, anche se anonimizzati. È invece possibile utilizzare strumenti che svolgono compiti procedurali limitati, migliorano attività già concluse o preparano valutazioni da svolgere con revisione umana, come previsto dall’art. 6, par. 3, AI Act.
Ricerche dottrinali e costruzione di stringhe di ricerca su banche dati istituzionali/commerciali.
Sintesi e abstract per classificare provvedimenti ostensibili e contributi scientifici; catalogazione per materia.
Organizzazione del lavoro: reportistica statistica, comparazione documentale, confronto tra programmi di gestione e dati di registro.
Bozze standard per affari semplici e attività seriali a bassa complessità, da adattare al caso.
Controlli documentali su allegazioni amministrativo-contabili opportunamente anonimizzate.
Calendari d’udienza e gestione agende secondo criteri predefiniti.
Tabelle e grafici da registri; traduzione assistita; revisione linguistica/stilistica.
Ricerche giurisprudenziali: è ammissibile il supporto tecnico alla ricerca (query e classificazioni). Non rientrano nella deroga, invece, strumenti che selezionano automaticamente la “giurisprudenza più rilevante”, suggeriscono orientamenti o emanano schemi motivazionali che incidono sulla valutazione del giudice.
Sovranità dei dati: informazioni del dominio giustizia custodite in ambienti non accessibili a terzi; preferenza per modelli residenti su server ministeriali o installazioni locali (anche open source) su hardware adeguato.
Protezione dati: minimizzazione degli input; no a dati sensibili/atti processuali su piattaforme non istituzionali; valutazione del rischio di reidentificazione.
Sorveglianza umana e audit: controllo critico degli output, log delle interazioni e audit periodici; sandbox regolatoria Ministero–CSM per sperimentazioni tracciate.
Formazione: percorsi strutturati per magistrati, avvocati e personale su fondamenti dell’IA, bias, drift, tecniche di verifica e uso responsabile.
L’impiego di IA in ambito giudiziario sarà possibile con soli sistemi marcati CE, registrati nella banca dati UE e conformi ai requisiti per l’alto rischio. Poiché al singolo giudice non sarà realistico vagliare gli algoritmi, la verifica si concentrerà sull’output: pertinenza rispetto al caso, coerenza giuridica, replicabilità su fonti ufficiali e assenza di errori rilevanti. Resta centrale l’esperienza processuale: oralità, immediatezza percettiva, contraddittorio.
Gli uffici introdurranno policy IA più esigenti su atti e dati. Gli studi dovranno investire in formazione, adottare criteri di accountability e data minimization e privilegiare fonti qualificate e argomentazioni controllabili: l’IA non sostituisce argomentazione e valutazione probatoria.
Le raccomandazioni del CSM delineano un equilibrio chiaro: sperimentare in sicurezza durante la transizione, costruendo competenze e soluzioni interne al sistema giustizia; a regime, adottare solo strumenti conformi e trasparenti, mantenendo al centro la decisione umana.
CONSIGLIO SUPERIORE DELLA MAGISTRATURA
Raccomandazioni sull'uso dell'intelligenza artificiale nell'amministrazione della giustizia.
(Delibera plenaria dell’8.10.2025)
" considerato che:
Richiamati:
Considerato, altresì, il "disegno di legge delega sull'intelligenza artificiale", DDL n.1146/2025, approvato definitivamente dal Parlamento il 17 settembre 2025;
Considerato il parere sul disegno di legge approvato dal CSM nella seduta del 25 settembre 2025;
Valutata l’istruttoria condotta dalla STO e l’audizione della professoressa Benedetta Galgani;
Rilevata la necessità da parte del CSM di adottare raccomandazioni sull'uso dell'Intelligenza Artificiale per l'amministrazione della giustizia, ispirate ai principi di legalità, trasparenza, proporzionalità e autonomia decisionale, al fine di garantire i diritti fondamentali nonché l'indipendenza e l’imparzialità dell'azione giudiziaria.
OSSERVA
1. RISCHI CONNESSI ALL'USO DELL'IA
L'impiego di sistemi di intelligenza artificiale è connesso ad una tecnologia rivoluzionaria, ma che comporta rischi significativi, in particolare per quanto riguarda la tutela dei diritti fondamentali, la protezione dei dati personali e la riservatezza delle informazioni trattate, oltre che l’affidabilità dei dati acquisiti.
I dati immessi nei sistemi di IA possono essere trasmessi in modo automatico e predefinito a fornitori terzi e registrati anche su server di aziende estere extra UE, nonché essere riutilizzati per finalità non previste, con potenziali violazioni della riservatezza dei dati e rischio di profilazione anche degli utenti.
I sistemi di IA utilizzano le informazioni già acquisite e possono definitivamente acquisire quelle immesse, atteso che il loro funzionamento cerca correlazioni e genera nuovi dati, a partire da quelli a disposizione, così da concretizzare il rischio che vengano generate informazioni sensibili sugli utenti con concreto rischio di successiva divulgazione.
Rischi significativi riguardano, inoltre, gli output generati dai sistemi di IA che possono contenere errori e distorsioni, quali cd. allucinazioni (generazioni di contenuti non basati sulla realtà oggettiva), o cd. sycophancies (generazioni di contenuti compiacenti).
Le risposte errate, infatti, possono avere origine: in dati di addestramento insufficienti o errati, non controllati, ovvero non strettamente riferibili ad informazioni tecniche e afferenti il settore specifico in cui esse devono poi essere utilizzate; nelle modalità di funzionamento degli algoritmi[3] che, essendo basati sulla statistica, tendono talvolta anche a "inventare" una risposta solo "probabile" con l'instaurazione di una falsa correlazione tra i dati.
L'intelligenza artificiale è, poi, profondamente determinata dai dati su cui è stata addestrata: non è, quindi, mai neutrale e, al contrario, incorpora tutte le imprecisioni contenute nel database di addestramento, nonché gli eventuali pregiudizi di chi ha progettato il sistema e ne ha guidato l'addestramento (cd. bias), dovendosi in proposito considerare che i sistemi, utilizzando algoritmi di tipo statistico, generano output che si basano fondamentalmente sul riconoscimento delle correlazioni tra dataset.
L'utente deve perciò tenere conto che:
a. L'output prodotto dai sistemi di IA generativa non è costante, poiché il loro funzionamento non segue logiche deterministiche ma probabilistiche: a ogni interrogazione il sistema seleziona, tra molte opzioni possibili, la risposta ritenuta più verosimile. Questa dinamica introduce una variabilità intrinseca, per cui la stessa domanda può generare risposte differenti.
b. Le risposte fornite possono variare anche in funzione della formulazione del quesito (cd. prompting), della lunghezza, della precisione linguistica o del contesto implicito nella richiesta, influenzando sensibilmente la qualità e la direzione dell'output generato.
c. Non è garantito un livello uniforme di qualità, coerenza o affidabilità delle risposte prodotte, anche in relazione a quesiti simili o ripetuti. L'output può contenere imprecisioni, omissioni, o risultare non pertinente rispetto al dominio di applicazione.
d. È sempre necessaria una verifica umana sull'accuratezza, la completezza e la pertinenza delle risposte, con riferimento a fonti attendibili e normative aggiornate, al fine di evitare che contenuti generati automaticamente assumano valore probatorio o decisionale senza adeguato controllo.
2. IL CONTESTO NORMATIVO E REGOLAMENTARE EUROPEO
Le istituzioni europee, considerato il considerevole impatto che l'implementazione dei sistemi di intelligenza artificiale avranno in tutti gli ambiti della vita sociale economica e culturale degli stati membri, sono intervenute per predisporre un complesso piano di intervento per il governo del fenomeno. Perno dell'intervento è il regolamento n. 1689/2024 ("AI act''); si tratta di una normativa vincolante per gli stati membri che, lungi dal frenare l'evoluzione tecnologica, mira ad incoraggiare l'uso dell'intelligenza artificiale e a renderla compatibile con i principi e i diritti fondamentali tutelati dall'ordinamento europeo e dagli ordinamenti nazionali.
L'amministrazione della giustizia rientra tra i settori maggiormente considerati dal regolamento europeo, in ragione delle notevoli ricadute che l'utilizzo di sistemi di IA comporteranno per i diritti fondamentali tutelati sia a livello europeo che nazionale.
Il regolamento - seguendo l'impostazione già tracciata dalla "Carta Etica europea sull'utilizzo dell'Intelligenza Artificiale nei sistemi giudiziari'' introdotta nel dicembre 2018 dalla CEPEJ - include l'amministrazione della giustiziatra i settori di utilizzo dei sistemi di IA ad alto rischio ed individua i relativi casi d'uso ad alto rischio: "i sistemi di IA destinati ad essere utilizzati da un'autorità giudiziaria o per suo conto per assistere un'autorità giudiziaria nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie."
Occorre precisare che, all'interno dei settori qualificati come ad alto rischio, il regolamento prevede una deroga per quelleattività che non presentano un rischio significativo di danno, anche nel senso di non influenzare materialmente il risultato del processo decisionale; tale deroga si applica quando l'attività svolta soddisfa una delle condizioni previste dallo stesso regolamento, tra cui ad esempio "l'esecuzione di un compito procedurale limitato"5.
Il regolamento individua un altro settore ad alto rischio che, indirettamente, può intendersi riferito anche all'autorità giudiziaria. Si tratta dell'attività di contrasto[4] alla commissione di reati nella misura in cui si parla di sistemi di IA destinati ad essere utilizzati per valutare l'affidabilità degli elementi probatori nel corso delle indagini o del perseguimento dei reati, o per determinare il rischio di recidiva[5].
Il regolamento prescrive poi dei requisiti obbligatori per i sistemi di IA destinati ad essere utilizzati nei settori ad alto rischio che devono essere garantiti dai relativi fornitori dei sistemi, al fine di gestire i rischi connessi al loro utilizzo e prevede un sistema di valutazione di conformità e di certificazione che garantisce il rispetto degli obblighi e dei requisiti prescritti4 5 6.
Prima di immettere un sistema di IA ad alto rischio sul mercato dell'UE o di farlo entrare in servizio, i fornitori dovranno dimostrare che il loro sistema è conforme ai requisiti obbligatoriper un'IA affidabile ed antropocentrica in relazione ai seguenti aspetti (artt. 8-15 reg. UE):
Al fine di garantire un elevato livello di affidabilità dei sistemi di IA ad alto rischio, tali sistemi dovranno essere sottoporre a una valutazione della conformità ai requisitiimposti dalla normativa europea prima della loro immissione sul mercato o messa in servizio.
Le norme armonizzate europee svolgeranno un ruolo fondamentale nell'attuazione di tali requisiti12.
Nel maggio 2023 la Commissione europea ha incaricato le organizzazioni europee di normazione CEN e CENELEC[7] di elaborare norme per tali requisiti ad alto rischio (standardization request).
Tale mandato sarà ora modificato per allinearlo al testo finale della legge sull'IA.
Le organizzazioni europee di normazione hanno avuto tempo fino alla fine di aprile 2025 per elaborare e pubblicare le norme, che saranno quindi valutate ed eventualmente approvate dalla Commissione e pubblicate nella Gazzetta ufficiale dell'UE. Una volta pubblicate, tali norme garantiranno una "presunzione di conformità" ai sistemi di IA sviluppati in conformità alle stesse.
Per dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti previsti dal regolamento e alle relative norme armonizzate e specifiche comuni, il fornitore sceglie una delle seguenti procedure di valutazione della conformità basate sugli elementi qui di seguito:
a) il controllo interno
b) la valutazione da parte di terzi con il coinvolgimento di un organismo notificato.
Per organismo notificato si intende un organismo di valutazione della conformità che è stato "notificato" dalla competente Autorità di notifica nazionale, a condizione che tali organismi soddisfino una serie di requisiti, in particolare in materia di indipendenza, competenza, assenza di conflitti di interesse e requisiti idonei di cibersicurezza (si tratta di un accreditamento degli organismi cui sarà consentito effettuare le valutazioni di conformità rilevanti ai dini del regolamento).
Al fine di agevolare il lavoro della Commissione e degli Stati membri nel settore dell'IA e di aumentare la trasparenza nei confronti del pubblico, il regolamento prevede anche una banca dati(art. 71) presso cui è fatto obbligo di registrarsi a tutti i fornitori di sistemi di IA ad alto rischio.
Occorre evidenziare alcune disposizioni del regolamento che mirano a garantire che nei settori ad alto rischio i sistemi di IA utilizzati siano sempre e solo quelli iscritti nella banca dati, che rispettano quindi i requisiti normativi prescritti per quei settori (si tratta degli artt. 25, 26 e 49 del regolamento).
Il regolamento europeo disegna poi l'architettura della governancedella normativa sulla intelligenza artificiale, sia a livello europeo che a livello nazione. A livello europeo: ufficio per l'IA (in seno alla Commissione, sovrintende all'applicazione e all'attuazione della legge sull'IA negli stati membri dell'UE ed è responsabile della supervisione dei modelli di IA più potenti, i cosiddetti modelli di IA generici), consiglio per l'IA (composto da un rappresentante per stato membro), un forum consultivo (che rappresenta una selezione diversificata di portatori di interessi, sia commerciali che non commerciali), il gruppo di esperti scientifici (composto da esperti indipendenti nel settore dell'IA). A livello nazionalele autorità competenti sono: un'autorità di notifica (l'autorità nazionale responsabile dell'istituzione e dell'esecuzione delle procedure necessarie per la valutazione, la designazione e la notifica degli organismi di valutazione della conformità e per il loro monitoraggio) e un'autorità di vigilanza del mercato (autorità che verifica il rispetto delle norme del regolamento UE). In Italia tali autorità sono state individuate dal d.d.l. sull'IA, rispettivamente, nell'Agid e nell'Acn). Riguardo alle autorità nazionali competenti il reg UE prescrive che le stesse esercitino i loro poteri "in modo indipendente, imparziale e senza pregiudizi, in modo da salvaguardare i principi di obiettività delle loro attività e dei loro compiti e garantire l'applicazione e l'attuazione del presente regolamento. I membri di tali autorità si astengono da qualsiasi atto incompatibile con le loro funzioni. A condizione che siano rispettati detti principi, tali compiti e attività possono essere svolti da una o più autorità designate, conformemente alle esigenze organizzative dello Stato membro." (art. 70 reg. ue).
Occorre considerare che l'entrata in vigore dell'intero impianto regolamentare UE è stato previsto per l'agosto del 2026, data dalla quale gli unici sistemi di intelligenza artificiale che potranno essere utilizzati dai magistrati nell'esercizio dell'attività giudiziaria (ovvero "nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti"), conformemente al diritto UE, saranno solo quelli a marcatura CE, ovvero quelli che avranno ottenuto una positiva valutazione di conformità e saranno iscritti nella relativa banca dati dell'Unione Europea.
La certificazione di tali sistemi "ad alto rischio" trasferisce il controllo della conformità sistemi di IA a un livello centralizzato, esentando i magistrati da controlli di fatto impraticabili e non accessibili al singolo giudice (riguardo, ad esempio, alla affidabilità dei sistemi, al livello di cybersicurezza e al livello tutela della privacy relativa ai dati immessi).
3. LA LEGGE APPROVATA IN PARLAMENTO E L’AMBITO DELL’INTERVENTO CONSILIARE
Il Parlamento ha adottato il primo dei provvedimenti attuativi delle prescrizioni europee. Coerentemente con le coordinate dettate dal Regolamento UE in merito all'amministrazione della giustizia, e con le competenze previste dal nostro ordinamento costituzionale, il disegno di legge delega n. 1146/2025 (approvato in via definitiva il 17 settembre 2025), all'art. 15, comma 2, assegna al Ministero della Giustizia la disciplina degli "impieghi dei sistemi di intelligenza artificiale per l'organizzazione dei servizi relativi alla giustizia, per la semplificazione del lavoro giudiziario e per le attività amministrative accessorie". Il comma 1 dello stesso articolo riserva invece al magistrato "ogni decisione sull'interpretazione e sull'applicazione della legge, sulla valutazione dei fatti e delle prove e sull'adozione dei provvedimenti", nei casi di impiego dei sistemi di intelligenza artificiale nell'attività giudiziaria.
Alla luce dell'assetto ordinamentale così delineato, le presenti raccomandazioni intendono offrire un orientamento per rispondere a tre quesiti:
Rispetto alla prima questione, si evidenzia che, durante la fase transitoria (cioè fino all’agosto del 2026), potranno anzitutto essere utilizzati tutti i sistemi autorizzati dal Ministero della Giustizia ai sensi del citato art. 15 co. 2 della legge 23 settembre 2025 n. 132.
Ciò in quanto i sistemi di intelligenza artificiale attualmente disponibili online, non garantiscono - in assenza di certificazione - i requisiti previsti per i sistemi ad alto rischio e non potranno, pertanto, essere utilizzati nell'attività giudiziaria in senso stretto.
Quanto alla seconda questione, occorre considerare che l'art. 6, par. 3, dell'AI Act prevede che non si applichino gli obblighi dei sistemi ad alto rischio qualora l'attività svolta:
a. sia limitata a compiti procedurali;
b. migliori il risultato di un'attività umana già completata;
c. rilevi schemi o deviazioni senza sostituire il giudizio umano;
d. prepari un'attività valutativa da svolgersi con supervisione umana.
Tali ipotesi delineano una zona grigia tra attività propriamente giudiziarie e attività organizzative o accessorie, rispetto alle quali l'utilizzo dell'IA può essere considerato compatibile con l'ordinamento vigente.
In questa prospettiva, possono rientrare tra gli impieghi ammissibili - purché in modalità tracciata, sicura e con revisione umana e nell'ambito degli applicativi forniti all'interno del dominio giustizia - le seguenti attività (si tratta di un’elencazione non esaustiva):
Sintesi di provvedimenti ostensibili e contributi dottrinali: creazione di abstract per la classificazione e l'archiviazione tematica di decisioni e saggi, anche in vista dell'elaborazione di banche dati giurisprudenziali interne all'ufficio.
Riflessione più articolata deve essere sviluppata con riferimento al tema delle ricerche sulle banche dati giurisprudenziali. L'utilizzo dell'intelligenza artificiale per tale finalità si colloca in un ambito che, sebbene riconducibile a compiti procedurali, può presentare profili di rischio elevati qualora l'output generato venga utilizzato come base esclusiva o prevalente nella formazione del convincimento del giudice.
L'IA può validamente assistere il magistrato nella consultazione delle banche dati istituzionali e commerciali, nella costruzione di stringhe di ricerca complesse e nella classificazione tematica del materiale reperito. In questo caso, l'attività si configura come supporto tecnico-organizzativo, riconducibile ai compiti procedurali limitati ai sensi dell'art. 6, par. 3, lett. a) del Regolamento UE 1689/2024. Tuttavia, laddove i sistemi siano progettati per selezionare automaticamente la giurisprudenza "più rilevante", per suggerire orientamenti interpretativi prevalenti o per generare schemi motivazionali basati su pattern ricorrenti, si configura un impiego che incide potenzialmente sull'attività valutativa e sull'indirizzo giuridico, e dunque si esce dall'ambito dell'art. 6, par. 3.
Si rende, pertanto, necessaria una vigilanza stringente su tre piani:
In ogni caso, l'output prodotto deve essere oggetto di valutazione e verifica autonoma da parte del magistrato, quale titolare esclusivo della funzione giurisdizionale. L'automazione della ricerca non può sostituire la sensibilità giuridica necessaria alla contestualizzazione del precedente.
È poi necessario che le banche dati giurisprudenziali messe a disposizione del magistrato garantiscano una base dati completa, non discriminatoria e aggiornata, ovvero prevedano forme di controllo e supervisione da parte della magistratura nella fase della selezione, classificazione e aggiornamento delle sentenze. La qualità, la neutralità e l'accessibilità della banca dati sono condizioni essenziali per un uso corretto e costituzionalmente compatibile dell'intelligenza artificiale in ambito giudiziario.
La terza questione – ovvero la prospettiva di utilizzo dell’IA dopo la compiuta attuazione delle regole europee - impone al Consiglio di confrontarsi con scenari futuri complessi, ma ineludibili.
È quindi opportuno definire sin d’ora le modalità con cui l’attività giudiziaria dovrà interfacciarsi con tali sistemi (vedi infra paragrafo 5).
È poi auspicabile che allo stato – mentre sono in corso le sperimentazioni dell’IA applicata alla giurisdizione in tutti i maggiori ordinamenti giuridici europei - il Ministero della Giustizia italiano eserciti le prerogativepreviste dall’art.110 della Costituzione.
Il ruolo attribuito per legge al Ministero per tutti i sistemi di IA, anche relativo ad attività amministrative ed accessorie, prevede che il Ministero autorizzi e monitori a livello sperimentale le applicazioni studiate e in uso (vedi i progetti PON Governance, il sistema di certificazione dell’impiego di IA, ecc.) che assicurino in modo rigoroso due requisiti ovvero la sicurezza della rete giustizia e la tutela dei dati sensibili e della privacy.
Da questo punto di vista sarebbe utile che il Ministero - dopo aver messo a disposizione degli uffici giudiziari i risultati delle sperimentazioni in corso con la rete dei RID e dei MAGRIF sotto la supervisione della STO (diretta articolazione consiliare) - valuti la possibilità di commissionare la realizzazione di un sistema di IA interno al sistema giustizia auspicabilmente pronto prima di agosto 2026 per essere fruito da tutti i magistrati ordinari.
Va poi considerato che l’evoluzione tecnologica sta permettendo la realizzazione di sistemi di IA (spesso Open-source) progettati per eseguire modelli di linguaggio di grandi dimensioni localmente, ossia attraverso una installazione sul pc dell’utente e senza dipendere dal cloud. Tali sistemi, destinati prossimamente ad evolvere e diventare di largo consumo, devono, al pari degli altri, essere gestiti dai magistrati con una particolare attenzione ed essere oggetto di adeguata sperimentazione.
4. LE RACCOMANDAZIONI DEL CONSIGLIO
Alla luce di quanto riportato nei paragrafi che precedono ne discende che, in presenza di una disciplina nazionale ancora in corso di formazione, la regola comunitaria delinea il limite all'utilizzo dei sistemi di IA nel campo della giustizia al quale il CSM raccomanda di uniformarsi dal momento di adozione della presente delibera.
In questa fase, dunque, e fino all’introduzione di sistemi conformi al regolamento europeo, deve essere escluso l’utilizzo non autorizzato di sistemi di IA nell’attività giudiziaria in senso stretto; resta però ferma la possibilità di sviluppare, in ambiente protetto e sperimentale sotto la supervisione congiunta del Ministero e del Consiglio, applicazioni anche in ambiti giudiziari, purché previa anonimizzazione e tracciabilità dei dati (come sta avvenendo, tra gli altri, nei tribunali di Bologna, Catania, Milano).
È necessario che la fase transitoria venga utilizzata come occasione di sperimentazione controllata e di crescita culturale, evitando che un divieto assoluto si traduca in un vuoto operativo e strategico: ciò esporrebbe la magistratura al rischio di trovarsi impreparata, priva delle necessarie competenze e dipendente da soluzioni esterne nel momento in cui entreranno in vigore le regole europee.
Permane, inoltre, la possibilità di utilizzo per attività amministrative ed organizzative strumentali all'attività giudiziaria come indicato nel precedente paragrafo 4 esclusivamente attraverso strumenti forniti dal Ministero della Giustizia che garantiscano la riservatezza e la non utilizzazione dei dati del singolo magistrato, pur presenti nel dominio giustizia, per l'addestramento dei sistemi.
Si deve, inoltre, escludere il rischio che con la tecnica del retrieval augmented generation (RAG) su archivi digitali della giustizia possa tradursi nella creazione di repository idonei a consentire forme di invasiva profilazione dell’attività giudiziaria e dei singoli magistrati
Pertanto, pur dovendosi escludere l’immissione di dati sensibili di atti processuali su dispositivi di IA generalista occorre fornire per tempo un’alternativa: progettare un sistema interno di IA che possa essere gradualmente utilizzato a partire da agosto 2026.
L’adozione di misure contrattuali ritenute idonee a garantire la riservatezza dei dati con operatori commerciali non appare soluzione soddisfacente. Occorre, infatti, garantire la sicurezza della rete, valutando l’utilizzo di modelli residenti su server sotto il controllo del ministero o l’uso di modelli (anche) open source in locale su hardware in dotazione ai magistrati, previo adeguamento tecnologico delle macchine, tenendo anche presente che i nuovi applicativi ministeriali (Desk Cassazione, APP) sono concepiti per lavorare on line (ulteriore ragione per cui la soluzione più efficace appare la costruzione di un sistema di IA interno al sistema giustizia che possa essere integrato con tali strumenti di lavoro, destinati ad operare on line).
Sarebbe poi auspicabile che il Ministero potesse estendere la sperimentazione della versione avanzata di Copilot ai magistrati che ne facciano richiesta per diffondere una sempre maggiore consapevolezza sulle potenzialità dello strumento, anche ai fini della costruzione del sistema interno.
Per un uso corretto dell'IA, è quindi necessario allo stato adottare una serie di cautele operative:
5. IL RUOLO DEL CSM.
Stante il ruolo istituzionale e la presenza ineludibile del Consiglio nella sua governance, l’impiego dell’IA dovrà avvenire nel rispetto delle normative europee e nazionali, tra cui l'AI Act14 e il Regolamento Generale sulla Protezione dei Dati (GDPR), disposizioni in tema di proprietà intellettuale, sicurezza, salute, benessere e tutela dei diritti umani.
L'utilizzo dell'IA dovrà avvenire nel rispetto delle normative europee e nazionali, tra cui l'AI Act[8] e il Regolamento Generale sulla Protezione dei Dati (GDPR), disposizioni in tema di proprietà intellettuale, sicurezza, salute, benessere e tutela dei diritti umani. È fondamentale che l'IA non sostituisca mai il pensiero libero e critico del magistrato, né pregiudichi l'originale contributo personale alla riflessione in campo giuridico, ma lo supporti in modo trasparente e ricostruibile. Ogni output prodotto da sistemi IA deve essere sempre sottoposto a riesame umano.
In considerazione degli scenari imminenti che porteranno gli operatori di giustizia a confrontarsi, una volta completato il quadro regolamentare, con sistemi di IA anche nella fase più strettamente valutativa, il Consiglio opererà al fine di:
6. I RAPPORTI CON GLI ALTRI ORGANI ISTITUZIONALI
Nella prospettiva di quanto indicato nei paragrafi precedenti, il Consiglio promuoverà, in sede istituzionale, la costituzione di specifici tavoli tecnici con il Ministero della Giustizia.
Il Consiglio, potrà, inoltre avvalersi di un gruppo tecnico multidisciplinare permanente, costituito eventualmente anche da esperti esterni, con l’incarico di svolgere attività di valutazione indipendente dei sistemi, di elaborare criteri metodologici condivisi per il controllo degli impieghi di IA.
Si auspica, inoltre, che il Ministero della Giustizia voglia adottare, d'intesa con il Consiglio stesso, un piano strategico per l'introduzione e la gestione dei sistemi di intelligenza artificiale nell'ambito della giustizia, che includa:
1. la selezione e l'acquisizione privilegiata di sistemi conformi ai requisiti previsti dal Regolamento UE 2024/1689 (AI Act), in particolare per l'ambito "ad alto rischio" per quanto applicabile all'attività giudiziaria:
Tanto premesso,
delibera
di approvare le raccomandazioni sull'impiego dell'intelligenza artificiale (IA) nell'amministrazione della giustizia di cui in parte motiva."
[1] Allo stato è disponibile per i magistrati la funzionalità "copilot" fornita di default dal pacchetto office messo a disposizione degli utenti del "dominio giustizia".
[2] Il Regolamento (UE) 2024/1689 all'articolo 3, punto 1), fornisce una definizione normativa di "sistema di intelligenza artificiale” descrivendolo come "un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”. Il "modello di intelligenza artificiale per finalità generali" viene poi definito dal medesimo articolo 3, al punto 63, del regolamento (UE) 2024/1689 come "un modello di IA, anche laddove tale modello di IA sia addestrato con grandi quantità di dati utilizzando l'autosupervisione su larga scala, che sia caratterizzato una generalità significativa e sia in grado di svolgere con competenza un'ampia gamma di compiti distinti, indipendentemente dalle modalità con cui il modello è immesso sul mercato, e che può essere integrato in una varietà di sistemi o applicazioni a valle, ad eccezione dei modelli di IA utilizzati per attività di ricerca, sviluppo o prototipazione prima di essere immessi sul mercato" . Rappresenta, dunque, un sistema automatizzato progettato per simulare l'intelligenza umana in modo da generare, dall'input che riceve, output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali e funzionare con livelli di autonomia variabili; appare evidente, dunque, il grande impatto che assume nei processi cognitivi ed operativi.
[3] L'algoritmo è un insieme di istruzioni o regole definite che vengono utilizzate per eseguire un'attività o risolvere un problema specifico; la combinazione di algoritmi è alla base dell’intelligenza artificiale e consente alle macchine di "apprendere" e generare output.
[6] Nello specifico, l'allegato III parla di " c) i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto o per loro conto, oppure da istituzioni, organi e organismi dell'Unione a sostegno delle autorità di contrasto per valutare l'affidabilità degli elementi probatori nel corso delle indagini o del perseguimento di reati; d) i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto o per loro conto, oppure da istituzioni, organi e organismi dell'Unione a sostegno delle autorità di contrasto, per determinare il rischio di commissione del reato o di recidiva in relazione a una persona fisica non solo sulla base della profilazione delle persone fisiche di cui all'articolo 3, paragrafo 4, della direttiva (UE) 2016/680 o per valutare i tratti e le caratteristiche della personalità o il comportamento criminale pregresso di persone fisiche o gruppi; e) i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto o per loro conto, oppure da istituzioni, organi e organismi dell'Unione a sostegno delle autorità di contrasto, per effettuare la profilazione delle persone fisiche di cui all'articolo 3, paragrafo 4, della direttiva (UE) 2016/680 nel corso dell'indagine, dell'accertamento e del perseguimento di reati."
[7] Art. 9 reg. UE: "1. In relazione ai sistemi di IA ad alto rischio è istituito, attuato, documentato e mantenuto un sistema di gestione dei rischi. 2.Il sistema di gestione dei rischi è inteso come un processo iterativo continuo pianificato ed eseguito nel corso dell'intero ciclo di vita di un sistema di IA ad alto rischio, che richiede un riesame e un aggiornamento costanti e sistematici. [^]"
[8] Art. 10 reg UE: "1. I sistemi di IA ad alto rischio che utilizzano tecniche che prevedono l'uso di dati per l'addestramento. di modelli di IA sono sviluppati sulla base di set di dati di addestramento, convalida e prova che soddisfano i criteri di qualità di cui ai paragrafi da 2 a 5 ogniqualvolta siano utilizzati tali set di dati. [^] 3.I set di dati di addestramento, convalida e prova sono pertinenti, sufficientemente rappresentativi e, nella misura del possibile, esenti da errori e completi nell'ottica della finalità prevista. Essi possiedono le proprietà statistiche appropriate anche, ove applicabile, per quanto riguarda le persone o i gruppi di persone relativamente ai quali il sistema di IA ad alto rischio è destinato a essere usato. Queste caratteristiche dei set di dati possono essere soddisfatte a livello di singoli set di dati o a livello di una combinazione degli stessi. 4.I set di dati tengono conto, nella misura necessaria per la finalità prevista, delle caratteristiche o degli elementi particolari dello specifico ambito geografico, contestuale, comportamentale o funzionale all'interno del quale il sistema di IA ad alto rischio è destinato a essere usato."
10 Art. 13 par. 1: "I sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire ai deployer di interpretare l'output del sistema e utilizzarlo adeguatamente."
[13] Dal sito del CEN: "Today the European Commission is presenting its new, long-awaited regulation on Artificial Intelligence (AI). This focus on AI on the part of the European Commission brings forward not only valuable questions for the continued evolution and safe deployment of this technology, but opportunities for ensuring the digital sovereignty of Europe for the future.
To help address these questions and provide support to the deployment of AI in Europe, European standards play a key
role. To organize and develop standardization work on this issue, CEN and CENELEC have established the CENCENELEC Joint Technical Committee 21 'Artificial Intelligence'.
This group brings together experts that will implement and lead the recommendations available in CEN and CENELEC's response to the EC White Paper on AI and CEN and CENELEC's Road Map on AI. The Joint Technical Committee, whose Secretariat is held by DS, the Danish Standardization Body, will be responsible for the development and adoption of standards for AI and related data, as well as provide guidance to other Technical Committees concerned with AI. Standards are relevant for the evolution of AI for a variety of reasons:
Together, standards build trust and boost innovation for all stakeholders: European businesses and SMEs, societal, environmental and policy makers. For this reason, CEN and CENELEC are ready to support the European Commission in its work related to fostering a safe and sustainable adoption of AI for the well-being of the whole EU."
[14] Il regolamento europeo che stabilisce le regole per l'uso dell'intelligenza artificiale (approvato dal Parlamento Europeo e dal Consiglio il 13 giugno 2024), classifica la materia della giustizia come ad alto rischio. Il comma 8 dell'Allegato III indica come ad alto rischio «i sistemi di IA destinati a essere usati da un'autorità giudiziaria o per suo conto per assistere un'autorità giudiziaria nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie». Ma, nel contempo, il "considerando" 61 precisa che «Non è tuttavia opportuno estendere la classificazione dei sistemi di IA come ad alto rischio ai sistemi di IA destinati ad attività amministrative puramente accessorie che non incidono sull'effettiva amministrazione della giustizia nei singoli casi» e l'art. 6 §3 introduce limitazioni alla stessa classificazione
come uso ad alto rischio: «In deroga al paragrafo 2, un sistema di IA di cui all'allegato IIInon è considerato ad alto rischio se non presenta un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale».