Giudici e IA: le raccomandazioni del CSM

Articolo del 15/10/2025

Il Consiglio Superiore della magistratura (CSM), con la delibera dell'8 ottobre 2025, ha aapprovato delle raccomandazioni sull'uso dell'intelligenza artificiale nell'amministrazione della giustizia.

Il provvedimento nasce dall’esigenza di governare l’introduzione dell’intelligenza artificiale nella giustizia, salvaguardando autonomia e indipendenza del giudice, diritti fondamentali, trasparenza e verificabilità degli esiti. L’obiettivo non è frenare l’innovazione, ma incanalarla entro presìdi chiari: l’IA supporta, non sostituisce il ragionamento del magistrato.

Il quadro normativo essenziale

Con l’AI Act l’uso dell’IA a supporto dell’autorità giudiziaria rientra, in linea generale, tra i sistemi ad alto rischio. Ciò comporta requisiti stringenti su gestione dei rischi, qualità dei dati, documentazione e tracciabilità, trasparenza, sorveglianza umana, accuratezza e cybersicurezza.

La Legge 23 settembre 2025, n. 132, all’art. 15, ribadisce che le scelte su interpretazione e applicazione della legge, valutazione dei fatti e delle prove e provvedimenti restano sempre in capo al magistrato, mentre al Ministero della Giustizia spetta disciplinare gli impieghi per organizzazione dei servizi, semplificazione del lavoro e attività amministrative.

I rischi secondo il CSM

Il documento individua criticità note: esposizione dei dati (anche verso soggetti extra-UE), profilazioni e reidentificazione, output fallaci (allucinazioni, sycophancy, bias), opacità degli algoritmi e possibili profilazioni dell’attività giudiziaria tramite repository non governati. Ne discende un imperativo: ogni risultato prodotto dall’IA deve poter essere controllato, contestato e replicato su fonti ufficiali.

La fase transitoria (fino ad agosto 2026)

Nel periodo che porta all’entrata a regime dell’AI Act, l’uso dell’IA nell’attività giurisdizionale è consentito solo per i sistemi autorizzati dal Ministero e collocati nel dominio giustizia, con tracciabilità dei processi e sorveglianza umana. Resta precluso l’impiego di servizi generalisti per attività decisionali o istruttorie e l’immissione di atti o dati sensibili in piattaforme non istituzionali, anche se anonimizzati. È invece possibile utilizzare strumenti che svolgono compiti procedurali limitati, migliorano attività già concluse o preparano valutazioni da svolgere con revisione umana, come previsto dall’art. 6, par. 3, AI Act.

Cosa si può fare subito negli uffici giudiziari

  • Ricerche dottrinali e costruzione di stringhe di ricerca su banche dati istituzionali/commerciali.

  • Sintesi e abstract per classificare provvedimenti ostensibili e contributi scientifici; catalogazione per materia.

  • Organizzazione del lavoro: reportistica statistica, comparazione documentale, confronto tra programmi di gestione e dati di registro.

  • Bozze standard per affari semplici e attività seriali a bassa complessità, da adattare al caso.

  • Controlli documentali su allegazioni amministrativo-contabili opportunamente anonimizzate.

  • Calendari d’udienza e gestione agende secondo criteri predefiniti.

  • Tabelle e grafici da registri; traduzione assistita; revisione linguistica/stilistica.

Ricerche giurisprudenziali: è ammissibile il supporto tecnico alla ricerca (query e classificazioni). Non rientrano nella deroga, invece, strumenti che selezionano automaticamente la “giurisprudenza più rilevante”, suggeriscono orientamenti o emanano schemi motivazionali che incidono sulla valutazione del giudice.

Le cautele operative raccomandate

  • Sovranità dei dati: informazioni del dominio giustizia custodite in ambienti non accessibili a terzi; preferenza per modelli residenti su server ministeriali o installazioni locali (anche open source) su hardware adeguato.

  • Protezione dati: minimizzazione degli input; no a dati sensibili/atti processuali su piattaforme non istituzionali; valutazione del rischio di reidentificazione.

  • Sorveglianza umana e audit: controllo critico degli output, log delle interazioni e audit periodici; sandbox regolatoria Ministero–CSM per sperimentazioni tracciate.

  • Formazione: percorsi strutturati per magistrati, avvocati e personale su fondamenti dell’IA, bias, drift, tecniche di verifica e uso responsabile.

Dopo agosto 2026

L’impiego di IA in ambito giudiziario sarà possibile con soli sistemi marcati CE, registrati nella banca dati UE e conformi ai requisiti per l’alto rischio. Poiché al singolo giudice non sarà realistico vagliare gli algoritmi, la verifica si concentrerà sull’output: pertinenza rispetto al caso, coerenza giuridica, replicabilità su fonti ufficiali e assenza di errori rilevanti. Resta centrale l’esperienza processuale: oralità, immediatezza percettiva, contraddittorio.

Implicazioni per l’avvocatura

Gli uffici introdurranno policy IA più esigenti su atti e dati. Gli studi dovranno investire in formazione, adottare criteri di accountability e data minimization e privilegiare fonti qualificate e argomentazioni controllabili: l’IA non sostituisce argomentazione e valutazione probatoria.

Conclusioni

Le raccomandazioni del CSM delineano un equilibrio chiaro: sperimentare in sicurezza durante la transizione, costruendo competenze e soluzioni interne al sistema giustizia; a regime, adottare solo strumenti conformi e trasparenti, mantenendo al centro la decisione umana.

Condividi su FacebookCondividi su LinkedinCondividi su Twitter

CONSIGLIO SUPERIORE DELLA MAGISTRATURA

Raccomandazioni sull'uso dell'intelligenza artificiale nell'amministrazione della giustizia.

(Delibera plenaria dell’8.10.2025)  

" considerato che:

  • l'impiego di sistemi di IA, in particolare quelli generativi e predittivi, introduce nuove possibilità di supporto alle attività di studio, analisi, gestione documentale e organizzazione dei flussi informativi, ma al contempo solleva questioni complesse in materia di protezione dei dati personali, trasparenza algoritmica e responsabilità decisionale;
  • nelle more dell'adozione da parte del Ministero della Giustizia di suite di intelligenza artificiale anche generativa a supporto delle attività giurisdizionali, risultano già disponibili al pubblico - inclusi evidentemente soggetti appartenenti all'ordine giudiziario - strumenti e servizi di IA forniti da operatori privati[1], la cui accessibilità diffusa rende necessaria una cornice di orientamento e vigilanza nell'utilizzo in ambito giudiziario e amministrativo;
  • l'impiego di questa tecnologia non si limita a una funzione meramente strumentale o organizzativa, come avviene nel caso degli applicativi tradizionali per la scrittura, la catalogazione o la ricerca documentale, i quali si limitano ad eseguire comandi impartiti dall'utente. I sistemi di intelligenza artificiale possono invece essere utilizzati per supportare e non sostituire, alcune fasi preparatorie dell'attività decisionale, offrendo sintesi, suggerimenti o correlazioni informative che affiancano il ragionamento umano senza determinarne gli esiti;
  • l'introduzione di sistemi di intelligenza artificiale in ambito giudiziario può essere considerata compatibile con la funzione giurisdizionale soltanto nella misura in cui tali strumenti siano integrati nel rispetto dei principi fondamentali del diritto processuale. In particolare, devono essere garantiti la trasparenza dell'elaborazione algoritmica, la possibilità di verifica e contestazione degli output, la subordinazione all'autonomia valutativa del giudice, e la parità informativa tra le parti. Solo un utilizzo conforme a tali requisiti potrà risultare coerente con i principi di legalità, giusto processo e tutela effettiva, su cui si fonda la giurisdizione in uno Stato di diritto.

Richiamati:

  • la "Carta etica europea sull'uso dell'Intelligenza Artificiale nei sistemi giudiziari e nel loro ambiente" adottata dalla CEPEJ ("Commissione Europea per l'Efficienza della Giustizia") nella sessione plenaria del 3 dicembre 2018;
  • l'AI act- regolamento europeo (UE) 1689/2024 del 13 giugno 2024[2] del Parlamento Europeo e del Consiglio, che stabilisce regole armonizzate sull'Intelligenza Artificiale e la modifica dei regolamenti (CE) n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull'Intelligenza Artificiale);
  • le "Linee Guida per l'adozione dei sistemi di Intelligenza Artificiale nella Pubblica Amministrazione" e relativi allegati, pubblicate con Determinazione n. 17 del 17 febbraio 2025, da adottare ai sensi del D.P.C.M. 12 gennaio 2024, recante "Piano triennale per l'informatica nella pubblica amministrazione 2024-2026" e che al termine del procedimento di revisione saranno adottate ai sensi dell'art. 71 del Codice dell'amministrazione digitale (CAD), per le quali il 20 marzo 2025 si è conclusa la fase di consultazione pubblica;
  • la carta dei diritti fondamentali dell'Unione Europea 2012/C 326/02 (CDFUE);
  • il regolamento europeo (UE) 2023/2854 del 13 dicembre 2023 del Parlamento Europeo e del Consiglio, riguardante norme armonizzate sull'accesso equo ai dati e sul loro utilizzo e che modifica il regolamento (UE) 2017/2394 e la direttiva (UE) 2020/1828 (regolamento sui dati);
  • il regolamento europeo (EU) 2022/868 del 30 maggio 2022 del Parlamento Europeo e del Consiglio, relativo alla governance europea dei dati e che modifica il regolamento (UE) 2018/1724 (Regolamento sulla governance dei dati);
  • la direttiva (UE) 2019/1024 del Parlamento europeo e del Consiglio, del 20 giugno 2019, relativa all'apertura dei dati e al riutilizzo dell'informazione del settore pubblico (rifusione); - la direttiva (UE) 2022/2555 del Parlamento europeo e del Consiglio del 14 dicembre 2022, relativa a misure per un livello comune elevato di cybersicurezza nell'Unione, recante modifica del regolamento (UE) n. 910/2014 e della direttiva (UE) 2018/1972 e che abroga la direttiva (UE) 2016/1148;
  • il regolamento (UE) 2016/679 del 27 aprile 2016 del Parlamento europeo e del Consiglio, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati (GDPR) e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati). [Reg.UE 2018/1725];
  • il regolamento (UE) 2018/1725 del Parlamento europeo e del Consiglio, del 23 ottobre 2018, sulla tutela delle persone fisiche in relazione al trattamento dei dati personali da parte delle istituzioni, degli organi e degli organismi dell'Unione e sulla libera circolazione di tali dati, e che abroga il regolamento (CE) n. 45/2001 e la decisione n. 1247/2002/ CE;
  • il decreto legislativo 30 giugno 2003, n. 196 e s.m.i. recante "Codice in materia di protezione dei personali";
  • il decreto legislativo 7 marzo 2005, n. 82 e s.m.i. recante "Codice dell'amministrazione digitale".

Considerato, altresì, il "disegno di legge delega sull'intelligenza artificiale", DDL n.1146/2025, approvato definitivamente dal Parlamento il 17 settembre 2025; 

Considerato il parere sul disegno di legge approvato dal CSM nella seduta del 25 settembre 2025;

Valutata l’istruttoria condotta dalla STO e l’audizione della professoressa Benedetta Galgani;

Rilevata la necessità da parte del CSM di adottare raccomandazioni sull'uso dell'Intelligenza Artificiale per l'amministrazione della giustizia, ispirate ai principi di legalità, trasparenza, proporzionalità e autonomia decisionale, al fine di garantire i diritti fondamentali nonché l'indipendenza e l’imparzialità dell'azione giudiziaria.  

OSSERVA

1. RISCHI CONNESSI ALL'USO DELL'IA

L'impiego di sistemi di intelligenza artificiale è connesso ad una tecnologia rivoluzionaria, ma che comporta rischi significativi, in particolare per quanto riguarda la tutela dei diritti fondamentali, la protezione dei dati personali e la riservatezza delle informazioni trattate, oltre che l’affidabilità dei dati acquisiti.

I dati immessi nei sistemi di IA possono essere trasmessi in modo automatico e predefinito a fornitori terzi e registrati anche su server di aziende estere extra UE, nonché essere riutilizzati per finalità non previste, con potenziali violazioni della riservatezza dei dati e rischio di profilazione anche degli utenti.

I sistemi di IA utilizzano le informazioni già acquisite e possono definitivamente acquisire quelle immesse, atteso che il loro funzionamento cerca correlazioni e genera nuovi dati, a partire da quelli a disposizione, così da concretizzare il rischio che vengano generate informazioni sensibili sugli utenti con concreto rischio di successiva divulgazione.

Rischi significativi riguardano, inoltre, gli output generati dai sistemi di IA che possono contenere errori e distorsioni, quali cd. allucinazioni (generazioni di contenuti non basati sulla realtà oggettiva), o cd. sycophancies (generazioni di contenuti compiacenti).

Le risposte errate, infatti, possono avere origine: in dati di addestramento insufficienti o errati, non controllati, ovvero non strettamente riferibili ad informazioni tecniche e afferenti il settore specifico in cui esse devono poi essere utilizzate; nelle modalità di funzionamento degli algoritmi[3] che, essendo basati sulla statistica, tendono talvolta anche a "inventare" una risposta solo "probabile" con l'instaurazione di una falsa correlazione tra i dati.

L'intelligenza artificiale è, poi, profondamente determinata dai dati su cui è stata addestrata: non è, quindi, mai neutrale e, al contrario, incorpora tutte le imprecisioni contenute nel database di addestramento, nonché gli eventuali pregiudizi di chi ha progettato il sistema e ne ha guidato l'addestramento (cd. bias), dovendosi in proposito considerare che i sistemi, utilizzando algoritmi di tipo statistico, generano output che si basano fondamentalmente sul riconoscimento delle correlazioni tra dataset.

L'utente deve perciò tenere conto che:

a. L'output prodotto dai sistemi di IA generativa non è costante, poiché il loro funzionamento non segue logiche deterministiche ma probabilistiche: a ogni interrogazione il sistema seleziona, tra molte opzioni possibili, la risposta ritenuta più verosimile. Questa dinamica introduce una variabilità intrinseca, per cui la stessa domanda può generare risposte differenti.

b. Le risposte fornite possono variare anche in funzione della formulazione del quesito (cd. prompting), della lunghezza, della precisione linguistica o del contesto implicito nella richiesta, influenzando sensibilmente la qualità e la direzione dell'output generato.

c. Non è garantito un livello uniforme di qualità, coerenza o affidabilità delle risposte prodotte, anche in relazione a quesiti simili o ripetuti. L'output può contenere imprecisioni, omissioni, o risultare non pertinente rispetto al dominio di applicazione.

d. È sempre necessaria una verifica umana sull'accuratezza, la completezza e la pertinenza delle risposte, con riferimento a fonti attendibili e normative aggiornate, al fine di evitare che contenuti generati automaticamente assumano valore probatorio o decisionale senza adeguato controllo.

2. IL CONTESTO NORMATIVO E REGOLAMENTARE EUROPEO

Le istituzioni europee, considerato il considerevole impatto che l'implementazione dei sistemi di intelligenza artificiale avranno in tutti gli ambiti della vita sociale economica e culturale degli stati membri, sono intervenute per predisporre un complesso piano di intervento per il governo del fenomeno. Perno dell'intervento è il regolamento n. 1689/2024 ("AI act''); si tratta di una normativa vincolante per gli stati membri che, lungi dal frenare l'evoluzione tecnologica, mira ad incoraggiare l'uso dell'intelligenza artificiale e a renderla compatibile con i principi e i diritti fondamentali tutelati dall'ordinamento europeo e dagli ordinamenti nazionali.

L'amministrazione della giustizia rientra tra i settori maggiormente considerati dal regolamento europeo, in ragione delle notevoli ricadute che l'utilizzo di sistemi di IA comporteranno per i diritti fondamentali tutelati sia a livello europeo che nazionale.

Il regolamento - seguendo l'impostazione già tracciata dalla "Carta Etica europea sull'utilizzo dell'Intelligenza Artificiale nei sistemi giudiziari'' introdotta nel dicembre 2018 dalla CEPEJ - include l'amministrazione della giustiziatra i settori di utilizzo dei sistemi di IA ad alto rischio ed individua i relativi casi d'uso ad alto rischio: "i sistemi di IA destinati ad essere utilizzati da un'autorità giudiziaria o per suo conto per assistere un'autorità giudiziaria nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie."

Occorre precisare che, all'interno dei settori qualificati come ad alto rischio, il regolamento prevede una deroga per quelleattività che non presentano un rischio significativo di danno, anche nel senso di non influenzare materialmente il risultato del processo decisionale; tale deroga si applica quando l'attività svolta soddisfa una delle condizioni previste dallo stesso regolamento, tra cui ad esempio "l'esecuzione di un compito procedurale limitato"5.

Il regolamento individua un altro settore ad alto rischio che, indirettamente, può intendersi riferito anche all'autorità giudiziaria. Si tratta dell'attività di contrasto[4] alla commissione di reati nella misura in cui si parla di sistemi di IA destinati ad essere utilizzati per valutare l'affidabilità degli elementi probatori nel corso delle indagini o del perseguimento dei reati, o per determinare il rischio di recidiva[5].

Il regolamento prescrive poi dei requisiti obbligatori per i sistemi di IA destinati ad essere utilizzati nei settori ad alto rischio che devono essere garantiti dai relativi fornitori dei sistemi, al fine di gestire i rischi connessi al loro utilizzo e prevede un sistema di valutazione di conformità e di certificazione che garantisce il rispetto degli obblighi e dei requisiti prescritti4 5 6.

Prima di immettere un sistema di IA ad alto rischio sul mercato dell'UE o di farlo entrare in servizio, i fornitori dovranno dimostrare che il loro sistema è conforme ai requisiti obbligatoriper un'IA affidabile ed antropocentrica in relazione ai seguenti aspetti (artt. 8-15 reg. UE):

  • gestione dei rischi7;
  • qualità dei dati di addestramento convalida e prova[6];
  • documentazione tecnica;
  • tracciabilità;
  • trasparenza9 e fornitura di informazioni ai deployer10;
  • sorveglianza umana11;
  • accuratezza, cybersicurezza e robustezza.

Al fine di garantire un elevato livello di affidabilità dei sistemi di IA ad alto rischio, tali sistemi dovranno essere sottoporre a una valutazione della conformità ai requisitiimposti dalla normativa europea prima della loro immissione sul mercato o messa in servizio.

Le norme armonizzate europee svolgeranno un ruolo fondamentale nell'attuazione di tali requisiti12.

Nel maggio 2023 la Commissione europea ha incaricato le organizzazioni europee di normazione CEN e CENELEC[7] di elaborare norme per tali requisiti ad alto rischio (standardization request).

    Tale mandato sarà ora modificato per allinearlo al testo finale della legge sull'IA.

    Le organizzazioni europee di normazione hanno avuto tempo fino alla fine di aprile 2025 per elaborare e pubblicare le norme, che saranno quindi valutate ed eventualmente approvate dalla Commissione e pubblicate nella Gazzetta ufficiale dell'UE. Una volta pubblicate, tali norme garantiranno una "presunzione di conformità" ai sistemi di IA sviluppati in conformità alle stesse.

    Per dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti previsti dal regolamento e alle relative norme armonizzate e specifiche comuni, il fornitore sceglie una delle seguenti procedure di valutazione della conformità basate sugli elementi qui di seguito:

    a) il controllo interno
    b) la valutazione da parte di terzi con il coinvolgimento di un organismo notificato.

    Per organismo notificato si intende un organismo di valutazione della conformità che è stato "notificato" dalla competente Autorità di notifica nazionale, a condizione che tali organismi soddisfino una serie di requisiti, in particolare in materia di indipendenza, competenza, assenza di conflitti di interesse e requisiti idonei di cibersicurezza (si tratta di un accreditamento degli organismi cui sarà consentito effettuare le valutazioni di conformità rilevanti ai dini del regolamento).

    Al fine di agevolare il lavoro della Commissione e degli Stati membri nel settore dell'IA e di aumentare la trasparenza nei confronti del pubblico, il regolamento prevede anche una banca dati(art. 71) presso cui è fatto obbligo di registrarsi a tutti i fornitori di sistemi di IA ad alto rischio.

    Occorre evidenziare alcune disposizioni del regolamento che mirano a garantire che nei settori ad alto rischio i sistemi di IA utilizzati siano sempre e solo quelli iscritti nella banca dati, che rispettano quindi i requisiti normativi prescritti per quei settori (si tratta degli artt. 25, 26 e 49 del regolamento).

    Il regolamento europeo disegna poi l'architettura della governancedella normativa sulla intelligenza artificiale, sia a livello europeo che a livello nazione. A livello europeo: ufficio per l'IA (in seno alla Commissione, sovrintende all'applicazione e all'attuazione della legge sull'IA negli stati membri dell'UE ed è responsabile della supervisione dei modelli di IA più potenti, i cosiddetti modelli di IA generici), consiglio per l'IA (composto da un rappresentante per stato membro), un forum consultivo (che rappresenta una selezione diversificata di portatori di interessi, sia commerciali che non commerciali), il gruppo di esperti scientifici (composto da esperti indipendenti nel settore dell'IA). A livello nazionalele autorità competenti sono: un'autorità di notifica (l'autorità nazionale responsabile dell'istituzione e dell'esecuzione delle procedure necessarie per la valutazione, la designazione e la notifica degli organismi di valutazione della conformità e per il loro monitoraggio) e un'autorità di vigilanza del mercato (autorità che verifica il rispetto delle norme del regolamento UE). In Italia tali autorità sono state individuate dal d.d.l. sull'IA, rispettivamente, nell'Agid e nell'Acn). Riguardo alle autorità nazionali competenti il reg UE prescrive che le stesse esercitino i loro poteri "in modo indipendente, imparziale e senza pregiudizi, in modo da salvaguardare i principi di obiettività delle loro attività e dei loro compiti e garantire l'applicazione e l'attuazione del presente regolamento. I membri di tali autorità si astengono da qualsiasi atto incompatibile con le loro funzioni. A condizione che siano rispettati detti principi, tali compiti e attività possono essere svolti da una o più autorità designate, conformemente alle esigenze organizzative dello Stato membro." (art. 70 reg. ue).

    Occorre considerare che l'entrata in vigore dell'intero impianto regolamentare UE è stato previsto per l'agosto del 2026, data dalla quale gli unici sistemi di intelligenza artificiale che potranno essere utilizzati dai magistrati nell'esercizio dell'attività giudiziaria (ovvero "nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti"), conformemente al diritto UE, saranno solo quelli a marcatura CE, ovvero quelli che avranno ottenuto una positiva valutazione di conformità e saranno iscritti nella relativa banca dati dell'Unione Europea.

    La certificazione di tali sistemi "ad alto rischio" trasferisce il controllo della conformità sistemi di IA a un livello centralizzato, esentando i magistrati da controlli di fatto impraticabili e non accessibili al singolo giudice (riguardo, ad esempio, alla affidabilità dei sistemi, al livello di cybersicurezza e al livello tutela della privacy relativa ai dati immessi).

     3. LA LEGGE APPROVATA IN PARLAMENTO E L’AMBITO DELL’INTERVENTO CONSILIARE

    Il Parlamento ha adottato il primo dei provvedimenti attuativi delle prescrizioni europee. Coerentemente con le coordinate dettate dal Regolamento UE in merito all'amministrazione della giustizia, e con le competenze previste dal nostro ordinamento costituzionale, il disegno di legge delega n. 1146/2025 (approvato in via definitiva il 17 settembre 2025), all'art. 15, comma 2, assegna al Ministero della Giustizia la disciplina degli "impieghi dei sistemi di intelligenza artificiale per l'organizzazione dei servizi relativi alla giustizia, per la semplificazione del lavoro giudiziario e per le attività amministrative accessorie". Il comma 1 dello stesso articolo riserva invece al magistrato "ogni decisione sull'interpretazione e sull'applicazione della legge, sulla valutazione dei fatti e delle prove e sull'adozione dei provvedimenti", nei casi di impiego dei sistemi di intelligenza artificiale nell'attività giudiziaria.

    Alla luce dell'assetto ordinamentale così delineato, le presenti raccomandazioni intendono offrire un orientamento per rispondere a tre quesiti:

    • quale uso può essere fatto dell'IA da parte dei magistrati italiani, in attesa dell'entrata in vigore delle disposizioni europee previste per agosto 2026;
    • se esistano attività, nell'ambito della giustizia, che non comportano un rischio significativo di danno e non influenzano materialmente l'esito del processo decisionale, per le quali possa trovare applicazione la deroga prevista dall'art. 6, par. 3, dell'AI Act.
    • quale sia la prospettiva di utilizzo dei sistemi di IA dopo l’agosto del 2026.

    Rispetto alla prima questione, si evidenzia che, durante la fase transitoria (cioè fino all’agosto del 2026), potranno anzitutto essere utilizzati tutti i sistemi autorizzati dal Ministero della Giustizia ai sensi del citato art. 15 co. 2 della legge 23 settembre 2025 n. 132.

    Ciò in quanto i sistemi di intelligenza artificiale attualmente disponibili online, non garantiscono - in assenza di certificazione - i requisiti previsti per i sistemi ad alto rischio e non potranno, pertanto, essere utilizzati nell'attività giudiziaria in senso stretto.

    Quanto alla seconda questione, occorre considerare che l'art. 6, par. 3, dell'AI Act prevede che non si applichino gli obblighi dei sistemi ad alto rischio qualora l'attività svolta:

    a. sia limitata a compiti procedurali;

    b. migliori il risultato di un'attività umana già completata;

    c. rilevi schemi o deviazioni senza sostituire il giudizio umano;

    d. prepari un'attività valutativa da svolgersi con supervisione umana.

    Tali ipotesi delineano una zona grigia tra attività propriamente giudiziarie e attività organizzative o accessorie, rispetto alle quali l'utilizzo dell'IA può essere considerato compatibile con l'ordinamento vigente.

    In questa prospettiva, possono rientrare tra gli impieghi ammissibili - purché in modalità tracciata, sicura e con revisione umana e nell'ambito degli applicativi forniti all'interno del dominio giustizia - le seguenti attività (si tratta di un’elencazione non esaustiva):

    1. Ricerche dottrinali: assistenza nella consultazione di banche dati e nella costruzione di stringhe di ricerca finalizzate all'individuazione di dottrina pertinente.

    Sintesi di provvedimenti ostensibili e contributi dottrinali: creazione di abstract per la classificazione e l'archiviazione tematica di decisioni e saggi, anche in vista dell'elaborazione di banche dati giurisprudenziali interne all'ufficio.

    1. Organizzazione del lavoro giudiziario: supporto nella redazione di report statistici sull'andamento dell'ufficio; analisi di conformità tra programmi di gestione e dati di registro; comparazione automatizzata di documenti; redazione di bozze di relazioni o pareri su incarichi direttivi e semidirettivi; gestione dei calendari d'udienza sulla base di carichi e scadenze.
    2. Supporto agli uffici c.d. "affari semplici": ausilio nelle attività seriali e a bassa complessità giuridica con la redazione di bozze standardizzate da adattare poi al caso specifico dal magistrato o dai suoi collaboratori.
    3. Supporto ad attività giurisdizionali gestionali attraverso il controllo della documentazione (soprattutto contabile nonché delle certificazioni) prodotta in atti ove opportunamente anonimizzata. 6.Confronto tra soluzioni tecniche per la gestione fascicoli: comparazione automatizzata di pratiche e prassi organizzative, anche tra diversi uffici, per individuare criticità o buone pratiche replicabili.
    4. Generazione automatica di presentazioni (slides): creazione di materiali illustrativi a partire da documenti giuridici o relazioni, per attività formative o divulgative.
    5. Produzione di tabelle e grafici: estrazione di dati dai registri, organizzazione in tabelle, analisi comparativa e rappresentazione grafica per fini organizzativi o conoscitivi.
    6. Revisione linguistica e stilistica di testi: rilettura di bozze per verificarne la coerenza sintattica, ortografica e la chiarezza espositiva.
    7. Catalogazione e archiviazione per materia dei quesiti ai CTU: organizzazione delle richieste per parola chiave o categoria tematica per facilitarne la consultazione e il riuso.
    8. Predisposizione di calendari d'udienza: generazione automatizzata degli orari e dell'agenda sulla base dei criteri predefiniti e dei carichi di lavoro.
    9. Traduzione assistita: uso dell'IA per traduzioni preliminari di testi giuridici, da sottoporre sempre a verifica umana.

    Riflessione più articolata deve essere sviluppata con riferimento al tema delle ricerche sulle banche dati giurisprudenziali. L'utilizzo dell'intelligenza artificiale per tale finalità si colloca in un ambito che, sebbene riconducibile a compiti procedurali, può presentare profili di rischio elevati qualora l'output generato venga utilizzato come base esclusiva o prevalente nella formazione del convincimento del giudice.

    L'IA può validamente assistere il magistrato nella consultazione delle banche dati istituzionali e commerciali, nella costruzione di stringhe di ricerca complesse e nella classificazione tematica del materiale reperito. In questo caso, l'attività si configura come supporto tecnico-organizzativo, riconducibile ai compiti procedurali limitati ai sensi dell'art. 6, par. 3, lett. a) del Regolamento UE 1689/2024. Tuttavia, laddove i sistemi siano progettati per selezionare automaticamente la giurisprudenza "più rilevante", per suggerire orientamenti interpretativi prevalenti o per generare schemi motivazionali basati su pattern ricorrenti, si configura un impiego che incide potenzialmente sull'attività valutativa e sull'indirizzo giuridico, e dunque si esce dall'ambito dell'art. 6, par. 3.

    Si rende, pertanto, necessaria una vigilanza stringente su tre piani:

    1. la natura e l'architettura dei sistemi utilizzati;
    2. la trasparenza degli algoritmi di selezione e classificazione;
    3. il ruolo attivo e critico del magistrato nel vaglio dei risultati.

    In ogni caso, l'output prodotto deve essere oggetto di valutazione e verifica autonoma da parte del magistrato, quale titolare esclusivo della funzione giurisdizionale. L'automazione della ricerca non può sostituire la sensibilità giuridica necessaria alla contestualizzazione del precedente.

    È poi necessario che le banche dati giurisprudenziali messe a disposizione del magistrato garantiscano una base dati completa, non discriminatoria e aggiornata, ovvero prevedano forme di controllo e supervisione da parte della magistratura nella fase della selezione, classificazione e aggiornamento delle sentenze. La qualità, la neutralità e l'accessibilità della banca dati sono condizioni essenziali per un uso corretto e costituzionalmente compatibile dell'intelligenza artificiale in ambito giudiziario.

    La terza questione – ovvero la prospettiva di utilizzo dell’IA dopo la compiuta attuazione delle regole europee - impone al Consiglio di confrontarsi con scenari futuri complessi, ma ineludibili

    È quindi opportuno definire sin d’ora le modalità con cui l’attività giudiziaria dovrà interfacciarsi con tali sistemi (vedi infra paragrafo 5)

    È poi auspicabile che allo stato – mentre sono in corso le sperimentazioni dell’IA applicata alla giurisdizione in tutti i maggiori ordinamenti giuridici europei - il Ministero della Giustizia italiano eserciti le prerogativepreviste dall’art.110 della Costituzione. 

    Il ruolo attribuito per legge al Ministero per tutti i sistemi di IA, anche relativo ad attività amministrative ed accessorie, prevede che il Ministero autorizzi e monitori a livello sperimentale le applicazioni studiate e in uso (vedi i progetti PON Governance, il sistema di certificazione dell’impiego di IA, ecc.) che assicurino in modo rigoroso due requisiti ovvero la sicurezza della rete giustizia e la tutela dei dati sensibili e della privacy.

    Da questo punto di vista sarebbe utile che il Ministero - dopo aver messo a disposizione degli uffici giudiziari i risultati delle sperimentazioni in corso con la rete dei RID e dei MAGRIF sotto la supervisione della STO (diretta articolazione consiliare) - valuti la possibilità di commissionare la realizzazione di un sistema di IA interno al sistema giustizia auspicabilmente pronto prima di agosto 2026 per essere fruito da tutti i magistrati ordinari. 

    Va poi considerato che l’evoluzione tecnologica sta permettendo la realizzazione di sistemi di IA (spesso Open-source) progettati per eseguire modelli di linguaggio di grandi dimensioni localmente, ossia attraverso una installazione sul pc dell’utente e senza dipendere dal cloud. Tali sistemi, destinati prossimamente ad evolvere e diventare di largo consumo, devono, al pari degli altri, essere gestiti dai magistrati con una particolare attenzione ed essere oggetto di adeguata sperimentazione.

    4. LE RACCOMANDAZIONI DEL CONSIGLIO

    Alla luce di quanto riportato nei paragrafi che precedono ne discende che, in presenza di una disciplina nazionale ancora in corso di formazione, la regola comunitaria delinea il limite all'utilizzo dei sistemi di IA nel campo della giustizia al quale il CSM raccomanda di uniformarsi dal momento di adozione della presente delibera. 

    In questa fase, dunque, e fino all’introduzione di sistemi conformi al regolamento europeo, deve essere escluso l’utilizzo non autorizzato di sistemi di IA nell’attività giudiziaria in senso stretto; resta però ferma la possibilità di sviluppare, in ambiente protetto e sperimentale sotto la supervisione congiunta del Ministero e del Consiglio, applicazioni anche in ambiti giudiziari, purché previa anonimizzazione e tracciabilità dei dati (come sta avvenendo, tra gli altri, nei tribunali di Bologna, Catania, Milano).

    È necessario che la fase transitoria venga utilizzata come occasione di sperimentazione controllata e di crescita culturale, evitando che un divieto assoluto si traduca in un vuoto operativo e strategico: ciò esporrebbe la magistratura al rischio di trovarsi impreparata, priva delle necessarie competenze e dipendente da soluzioni esterne nel momento in cui entreranno in vigore le regole europee.

    Permane, inoltre, la possibilità di utilizzo per attività amministrative ed organizzative strumentali all'attività giudiziaria come indicato nel precedente paragrafo 4 esclusivamente attraverso strumenti forniti dal Ministero della Giustizia che garantiscano la riservatezza e la non utilizzazione dei dati del singolo magistrato, pur presenti nel dominio giustizia, per l'addestramento dei sistemi. 

    Si deve, inoltre, escludere il rischio che con la tecnica del retrieval augmented generation (RAG) su archivi digitali della giustizia possa tradursi nella creazione di repository idonei a consentire forme di invasiva profilazione dell’attività giudiziaria e dei singoli magistrati

    Pertanto, pur dovendosi escludere l’immissione di dati sensibili di atti processuali su dispositivi di IA generalista occorre fornire per tempo un’alternativa: progettare un sistema interno di IA che possa essere gradualmente utilizzato a partire da agosto 2026.

    L’adozione di misure contrattuali ritenute idonee a garantire la riservatezza dei dati con operatori commerciali non appare soluzione soddisfacente. Occorre, infatti, garantire la sicurezza della rete, valutando l’utilizzo di modelli residenti su server sotto il controllo del ministero o l’uso di modelli (anche) open source in locale su hardware in dotazione ai magistrati, previo adeguamento tecnologico delle macchine, tenendo anche presente che i nuovi applicativi ministeriali (Desk Cassazione, APP) sono concepiti per lavorare on line (ulteriore ragione per cui la soluzione più efficace appare la costruzione di un sistema di IA interno al sistema giustizia che possa essere integrato con tali strumenti di lavoro, destinati ad operare on line).

    Sarebbe poi auspicabile che il Ministero potesse estendere la sperimentazione della versione avanzata di Copilot ai magistrati che ne facciano richiesta per diffondere una sempre maggiore consapevolezza sulle potenzialità dello strumento, anche ai fini della costruzione del sistema interno.

    Per un uso corretto dell'IA, è quindi necessario allo stato adottare una serie di cautele operative: 

    • la sovranità dei dati e delle informazioni: i dati e le informazioni generate non devono mai essere accessibili a terzi non autorizzati;
    • la protezione dei dati: nei sistemi IA non vanno immessi dati sensibili, riservati o soggetti a segreto investigativo, anche in forma indiretta. È importante, in particolare, considerare il rischio di reidentificazione dei dati, ancorché anonimizzati o pseudonimizzati, ad opera dell'IA attraverso l'incrocio di dataset. Occorre, in ogni caso, immettere nei sistemi di IA solo le informazioni necessarie;
    • la qualità dei dati: i risultati delle applicazioni di intelligenza artificiale devono essere vagliati per garantire che soddisfino adeguati standard in termini di equità ed è, pertanto, essenziale garantire l'affidabilità e la rappresentatività dei dati di input al fine di evitare output con risultati affetti da cd. Bias ovvero da discriminazioni alle persone in base a razza, religione, sesso, origine nazionale, età, disabilità, stato civile, affiliazione politica o orientamento sessuale;
    • la supervisione: ogni utilizzo dell'IA deve essere supervisionato dall' utente per verificare il rispetto delle normative sui diritti fondamentali dell'uomo, sul trattamento dei dati, del copyright e della sicurezza, oltre che per verificare la correttezza ed affidabilità dell'output. La supervisione / sorveglianza umana dovrà correggere eventuali risultati inattendibili, reinterpretarli o modificarli. Occorre sempre verificare di poter replicare autonomamente le conclusioni fornite dall'IA;
    • la responsabilità individuale: il magistrato è tenuto all'utilizzo consapevole e conforme degli strumenti IA a partire dall’obbligo di informazione e partecipazione alla formazione che sul tema sarà erogata.  

    5. IL RUOLO DEL CSM.  

    Stante il ruolo istituzionale e la presenza ineludibile del Consiglio nella sua governance, l’impiego dell’IA dovrà avvenire nel rispetto delle normative europee e nazionali, tra cui l'AI Act14 e il Regolamento Generale sulla Protezione dei Dati (GDPR), disposizioni in tema di proprietà intellettuale, sicurezza, salute, benessere e tutela dei diritti umani. 

    L'utilizzo dell'IA dovrà avvenire nel rispetto delle normative europee e nazionali, tra cui l'AI Act[8] e il Regolamento Generale sulla Protezione dei Dati (GDPR), disposizioni in tema di proprietà intellettuale, sicurezza, salute, benessere e tutela dei diritti umani. È fondamentale che l'IA non sostituisca mai il pensiero libero e critico del magistrato, né pregiudichi l'originale contributo personale alla riflessione in campo giuridico, ma lo supporti in modo trasparente e ricostruibile. Ogni output prodotto da sistemi IA deve essere sempre sottoposto a riesame umano.

    In considerazione degli scenari imminenti che porteranno gli operatori di giustizia a confrontarsi, una volta completato il quadro regolamentare, con sistemi di IA anche nella fase più strettamente valutativa, il Consiglio opererà al fine di:

    • Rendere i magistrati consapevoli delle potenzialità e dei limiti dei sistemi di IA. Il magistrato deve essere consapevole che i sistemi di IA producono output probabilistici, non deterministici: generano stime/classificazioni affette da incertezza, dipendono dai dati e dalla configurazione del modello e possono presentare errori e allucinazioni. Conoscere questi aspetti consente di valorizzarne i benefici e, insieme, di governarne i limiti. Anche avvalendosi delle strutture consiliari di supporto, saranno quindi raccolte e diffuse le buone prassi sui fondamenti dell’IA (natura probabilistica, soglie di confidenza, errore, bias, model drift), sulle cautele d’uso (minimizzazione degli input, divieto di trattare atti o dati di procedimento) e sulle tecniche di verifica dell’output (replicabilità su fonti ufficiali, triangolazione delle fonti, controllo di coerenza).
    • Tutelare il tempo della decisione. L’uso dell’IA deve essere prevalentemente orientato a liberare tempo per la decisione e non solo a un incremento dell’efficienza e della produttività. Poiché realisticamente in futuro non sarà consentito al singolo magistrato di vagliare in autonomia gli algoritmi che governano i sistemi, la verifica umana dovrà concentrarsi sull’output: pertinenza rispetto al caso, coerenza giuridica, replicabilità su fonti ufficiali e assenza di errori o distorsioni rilevanti. Il giudice potrà mantenere l’autonomia critica solo se disporrà del tempo necessario per controllare gli esiti, farli propri oppure discostarsene motivatamente quando non convincenti. Ciò implica anche la possibilità di resistere alla macchina (riconoscendone gli errori ed evitando il c.d. automation bias) e di non cedere all’attrazione dell’efficienza numerica quando questa mette a rischio la qualità della decisione e i presìdi del giusto processo.
    • Riaffermare la centralità dell’esperienza processuale. Il processo e la valutazione giudiziale sono un’esperienza umana insostituibile, fondata su presenza, oralità, immediatezza percettiva e contraddittorio in uno spazio condiviso. Il Consiglio si adopererà, pertanto, per impedire la “despazializzazione del giudizio”, ossia la riduzione del processo a mera interazione digitale, riaffermando che la decisione nasce da una relazione viva tra giudice, parti e prove, in un tempo e in uno spazio che ne garantiscano serietà, pubblicità e responsabilità.

    6. I RAPPORTI CON GLI ALTRI ORGANI ISTITUZIONALI

    Nella prospettiva di quanto indicato nei paragrafi precedenti, il Consiglio promuoverà, in sede istituzionale, la costituzione di specifici tavoli tecnici con il Ministero della Giustizia.

    Il Consiglio, potrà, inoltre avvalersi di un gruppo tecnico multidisciplinare permanente, costituito eventualmente anche da esperti esterni, con l’incarico di svolgere attività di valutazione indipendente dei sistemi, di elaborare criteri metodologici condivisi per il controllo degli impieghi di IA.

    Si auspica, inoltre, che il Ministero della Giustizia voglia adottare, d'intesa con il Consiglio stesso, un piano strategico per l'introduzione e la gestione dei sistemi di intelligenza artificiale nell'ambito della giustizia, che includa:

    1. la selezione e l'acquisizione privilegiata di sistemi conformi ai requisiti previsti dal Regolamento UE 2024/1689 (AI Act), in particolare per l'ambito "ad alto rischio" per quanto applicabile all'attività giudiziaria:

    • la verifica della adesione formale o sostanziale al Codice di Condotta15 per i modelli generativi da parte dei fornitori, quale presupposto di trasparenza, affidabilità, protezione dei dati e rispetto dei diritti fondamentali;
    • la definizione di criteri condivisi per l'autorizzazione e la tracciabilità dei sistemi impiegati negli uffici giudiziari;
    • la predisposizione di protocolli tecnici e organizzativi per la tutela dei dati, la cybersicurezza e la prevenzione della profilazione indebita;
    1. la definizione, con il coinvolgimento del Consiglio Superiore della Magistratura, di una sandbox16 regolatoria congiunta per la sperimentazione controllata di sistemi di IA destinati all'uso giudiziario o organizzativo. Tale ambiente sperimentale, fondato su un approccio paritetico e trasparente, consentirà la verifica preventiva dell'impatto tecnologico, giuridico e costituzionale, con particolare riferimento alla protezione dei diritti fondamentali, all'imparzialità del trattamento e all'autonomia della funzione giurisdizionale;
    2. l'istituzione di un sistema di audit periodico sull'impatto dei sistemi IA nell'attività giudiziaria e organizzativa;
    3. l’avvio delle necessarie interlocuzioni con l’avvocatura per una valutazione e una disciplina uniforme delle ricadute dell’utilizzo dell’IA in ambito processuale.

    Tanto premesso,

    delibera

    di approvare le raccomandazioni sull'impiego dell'intelligenza artificiale (IA) nell'amministrazione della giustizia di cui in parte motiva."

     

    [1] Allo stato è disponibile per i magistrati la funzionalità "copilot" fornita di default dal pacchetto office messo a disposizione degli utenti del "dominio giustizia".

    [2] Il Regolamento (UE) 2024/1689 all'articolo 3, punto 1), fornisce una definizione normativa di "sistema di intelligenza artificiale” descrivendolo come "un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”. Il "modello di intelligenza artificiale per finalità generali" viene poi definito dal medesimo articolo 3, al punto 63, del regolamento (UE) 2024/1689 come "un modello di IA, anche laddove tale modello di IA sia addestrato con grandi quantità di dati utilizzando l'autosupervisione su larga scala, che sia caratterizzato una generalità significativa e sia in grado di svolgere con competenza un'ampia gamma di compiti distinti, indipendentemente dalle modalità con cui il modello è immesso sul mercato, e che può essere integrato in una varietà di sistemi o applicazioni a valle, ad eccezione dei modelli di IA utilizzati per attività di ricerca, sviluppo o prototipazione prima di essere immessi sul mercato" . Rappresenta, dunque, un sistema automatizzato progettato per simulare l'intelligenza umana in modo da generare, dall'input che riceve, output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali e funzionare con livelli di autonomia variabili; appare evidente, dunque, il grande impatto che assume nei processi cognitivi ed operativi.

    [3] L'algoritmo è un insieme di istruzioni o regole definite che vengono utilizzate per eseguire un'attività o risolvere un problema specifico; la combinazione di algoritmi è alla base dell’intelligenza artificiale e consente alle macchine di "apprendere" e generare output.

     

    1. Le altre condizioni previste dal regolamento art. 6 par. 3: "a) il sistema di IA è destinato a eseguire un compito procedurale limitato; b) il sistema di IA è destinato a migliorare il risultato di un'attività umana precedentemente completata; c) il sistema di IA è destinato a rilevare schemi decisionali o deviazioni da schemi decisionali precedenti e non è finalizzato a sostituire o influenzare la valutazione umana precedentemente completata senza un'adeguata revisione umana; o d) il sistema di IA è destinato aeseguire un compito preparatorio per una valutazione pertinente ai fini dei casi d'uso elencati nell'allegatoIII."
    2. Il regolamento definisce le attività di contractor come "le attività svolte dalle autorità di contrasto o per loro conto a fini di prevenzione, indagine, accertamento o perseguimento di reati o esecuzione di sanzioni penali, incluse la salvaguardia contro le minacce alla sicurezza pubblica e la prevenzione delle stesse;". Definisce altresì le autorità di contrasto, che sono intese come "a) qualsiasi autorità pubblica competente in materia di prevenzione, indagine, accertamento o perseguimento di reati o esecuzione di sanzioni penali, incluse la salvaguardia contro le minacce alla sicurezza pubblica e la prevenzione delle stesse; oppure b) qualsiasi altro organismo o entità incaricati dal diritto dello Stato membro di esercitare l'autorità pubblica e i poteri pubblici a fini di prevenzione, indagine, accertamento o perseguimento di reati o esecuzione di sanzioni penali, incluse la salvaguardia contro le minacce alla sicurezza pubblica e la prevenzione delle stesse;"

    [6] Nello specifico, l'allegato III parla di " c) i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto o per loro conto, oppure da istituzioni, organi e organismi dell'Unione a sostegno delle autorità di contrasto per valutare l'affidabilità degli elementi probatori nel corso delle indagini o del perseguimento di reati; d) i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto o per loro conto, oppure da istituzioni, organi e organismi dell'Unione a sostegno delle autorità di contrasto, per determinare il rischio di commissione del reato o di recidiva in relazione a una persona fisica non solo sulla base della profilazione delle persone fisiche di cui all'articolo 3, paragrafo 4, della direttiva (UE) 2016/680 o per valutare i tratti e le caratteristiche della personalità o il comportamento criminale pregresso di persone fisiche o gruppi; e) i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto o per loro conto, oppure da istituzioni, organi e organismi dell'Unione a sostegno delle autorità di contrasto, per effettuare la profilazione delle persone fisiche di cui all'articolo 3, paragrafo 4, della direttiva (UE) 2016/680 nel corso dell'indagine, dell'accertamento e del perseguimento di reati."

    [7] Art. 9 reg. UE: "1. In relazione ai sistemi di IA ad alto rischio è istituito, attuato, documentato e mantenuto un sistema di gestione dei rischi. 2.Il sistema di gestione dei rischi è inteso come un processo iterativo continuo pianificato ed eseguito nel corso dell'intero ciclo di vita di un sistema di IA ad alto rischio, che richiede un riesame e un aggiornamento costanti e sistematici. [^]"

    [8] Art. 10 reg UE: "1. I sistemi di IA ad alto rischio che utilizzano tecniche che prevedono l'uso di dati per l'addestramento. di modelli di IA sono sviluppati sulla base di set di dati di addestramento, convalida e prova che soddisfano i criteri di qualità di cui ai paragrafi da 2 a 5 ogniqualvolta siano utilizzati tali set di dati. [^] 3.I set di dati di addestramento, convalida e prova sono pertinenti, sufficientemente rappresentativi e, nella misura del possibile, esenti da errori e completi nell'ottica della finalità prevista. Essi possiedono le proprietà statistiche appropriate anche, ove applicabile, per quanto riguarda le persone o i gruppi di persone relativamente ai quali il sistema di IA ad alto rischio è destinato a essere usato. Queste caratteristiche dei set di dati possono essere soddisfatte a livello di singoli set di dati o a livello di una combinazione degli stessi. 4.I set di dati tengono conto, nella misura necessaria per la finalità prevista, delle caratteristiche o degli elementi particolari dello specifico ambito geografico, contestuale, comportamentale o funzionale all'interno del quale il sistema di IA ad alto rischio è destinato a essere usato."

     

    10 Art. 13 par. 1: "I sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire ai deployer di interpretare l'output del sistema e utilizzarlo adeguatamente."

    1. Art. 13 par. 2: "I sistemi di IA ad alto rischio sono accompagnati da istruzioni per l'uso, in un formato appropriato digitale o non digitale, che comprendono informazioni concise, complete, corrette e chiare che siano pertinenti, accessibili e comprensibili per i deployer."
    2. Il regolamento prevede che la sorveglianza umana sia commisurata ai rischi e al contesto di utilizzo del
    3. "La funzione delle norme tecniche nella regolamentazione UE in relazione al Regolamento sull'Intelligenza Artificiale. Per promuovere l'armonizzazione nel campo dell'IA, rendendola affidabile e uniforme nel territorio dell'UE, è stato ritenuto necessario affiancare agli obblighi regolamentari anche norme tecniche europee, al fine di coprire le principali aree tecniche coinvolte dall'AI Act. Per definizione, una norma è una specifica tecnica, adottata da un organismo di normazione riconosciuto, non obbligatoria (Regolamento UE 1025/2012). La normazione, in generale, può avere a oggetto specifiche tecniche di prodotto o di servizio, ossia la redazione di documenti che prescrivono requisiti tecnici che un determinato prodotto, processo, servizio o sistema deve soddisfare. Pertanto, le norme europee costituiscono un insieme di specifiche tecniche e/o criteri stabiliti da un organismo di normazione europeo. In generale, la normazione europea è organizzata da e per gli stakeholder, rappresentati nazionalmente tramite il Comitato Europeo di Normazione (CEN), il Comitato Europeo di Normazione Elettrotecnica (CENELEC), e la partecipazione diretta degli stakeholder attraverso l'Istituto Europeo di Normazione delle Telecomunicazioni (ETSI). L'intero processo di armonizzazione ruota attorno ai principi riconosciuti dall'Organizzazione Mondiale del Commercio (OMC) nel campo della normazione, ovvero coerenza, trasparenza, apertura, consenso, applicazione volontaria, indipendenza da interessi particolari ed efficienza.L'obiettivo primario della normazione tecnica nel campo dell'IA consiste nella definizione di specifiche tecniche e/o qualitative a cui i prodotti basati sull'IA, già sul mercato o di futura introduzione, i loro processi produttivi o i servizi forniti, possono conformarsi (su base volontaria) con il proposito di garantire, in modo armonizzato, la sicurezza e l'affidabilità dei sistemi d'IA, nonché la compatibilità e l'interoperabilità con altri prodotti o sistemi. In linea con il Regolamento UE 1025/2012, le norme che verranno sviluppate nel campo dell'IA avranno un ruolo decisivo nel sostenere l'attuazione della nuova normativa di compliance. Ai fini dell'analisi del ruolo dell'accreditamento in questa materia, è importante considerare con attenzione la definizione di normativa tecnica armonizzata. Ai sensi dell'art. 2, par. 1, lett. c del Regolamento, si intende per harmonised standard (norme armonizzate) "una norma tecnica europea, adottata sulla base di una richiesta della Commissione ai fini dell'applicazione della legislazione dell'Unione sull'armonizzazione".” Norme tecniche e valutazione della conformità accreditata per lo sviluppo dei sistemi di Intelligenza Artificiale, Osservatorio Accredia.

    [13] Dal sito del CEN: "Today the European Commission is presenting its new, long-awaited regulation on Artificial Intelligence (AI). This focus on AI on the part of the European Commission brings forward not only valuable questions for the continued evolution and safe deployment of this technology, but opportunities for ensuring the digital sovereignty of Europe for the future.

    To help address these questions and provide support to the deployment of AI in Europe, European standards play a key 

    role. To organize and develop standardization work on this issue, CEN and CENELEC have established the CENCENELEC Joint Technical Committee 21 'Artificial Intelligence'.

    This group brings together experts that will implement and lead the recommendations available in CEN and CENELEC's response to the EC White Paper on AI and CEN and CENELEC's Road Map on AI. The Joint Technical Committee, whose Secretariat is held by DS, the Danish Standardization Body, will be responsible for the development and adoption of standards for AI and related data, as well as provide guidance to other Technical Committees concerned with AI. Standards are relevant for the evolution of AI for a variety of reasons:

    1. they provide expertise to an emerging technology, ensuring safety and security for products and services;
    2. they are intrinsically designed to be an inclusive and market-driven instrument of support for European regulation through the New Legislative Framework, benefitting the Single Market and reducing barriers to trade.

    Together, standards build trust and boost innovation for all stakeholders: European businesses and SMEs, societal, environmental and policy makers. For this reason, CEN and CENELEC are ready to support the European Commission in its work related to fostering a safe and sustainable adoption of AI for the well-being of the whole EU."

    [14] Il regolamento europeo che stabilisce le regole per l'uso dell'intelligenza artificiale (approvato dal Parlamento Europeo e dal Consiglio il 13 giugno 2024), classifica la materia della giustizia come ad alto rischio. Il comma 8 dell'Allegato III indica come ad alto rischio «i sistemi di IA destinati a essere usati da un'autorità giudiziaria o per suo conto per assistere un'autorità giudiziaria nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie». Ma, nel contempo, il "considerando" 61 precisa che «Non è tuttavia opportuno estendere la classificazione dei sistemi di IA come ad alto rischio ai sistemi di IA destinati ad attività amministrative puramente accessorie che non incidono sull'effettiva amministrazione della giustizia nei singoli casi» e l'art. 6 §3 introduce limitazioni alla stessa classificazione 

    come uso ad alto rischio: «In deroga al paragrafo 2, un sistema di IA di cui all'allegato IIInon è considerato ad alto rischio se non presenta un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale».

      ©2024 misterlex.it - [email protected] - Privacy - P.I. 02029690472