Intelligenza artificiale


L’avvento di tecnologie sempre più “intelligenti” sta mettendo in crisi la nostra visione antropocentrica rendendo possibile la delega all’Intelligenza Artificiale di compiti e servizi in ambiti complessi, tra i quali anche la giustizia.


Il Piano Nazionale per la Giustizia – da realizzarsi con i fondi del PNRR entro il 2026 – prevede la digitalizzazione del processo civile e penale e degli archivi degli ultimi dieci anni, e la creazione di un Data Lake, ossia di una grande banca dati dove i provvedimenti anonimizzati vengono archiviati ed elaborati per permettere la ricerca delle soluzioni giuridiche e la loro ricorrenza statistica. 


Questi obiettivi, aumentando la trasparenza e l’accessibilità delle decisioni e riducendo la durata del processo, sono funzionali a soddisfare il principio di certezza del diritto e della ragionevole prevedibilità della norma, cardini del principio di legalità e del principio di uguaglianza. 


La giustizia digitale permette di elaborare sistemi di ausilio al magistrato che eseguono compiti specifici quali gestione delle comunicazioni, raccolta dati, analisi massiva di documenti, ricerca di precedenti giudiziari, redazione di atti standardizzati. 


Per altro verso, la creazione di una grande banca dati e l’elaborazione statistica delle ricorrenze giurisprudenziali, normative e fattuali costituiscono la base per consentire nel prossimo futuro ad algoritmi appositamente istruiti la creazione di modelli linguistici standardizzati che da un lato mostreranno all’operatore del diritto non solo gli orientamenti giurisprudenziali, ma anche le strategie difensive o le soluzioni interpretative che avranno la maggiore probabilità, a seconda dei casi, di essere accolte o non riformate.


Ma l’innovazione digitale ha effetti positivi sulla giustizia solo se resta ancorata agli obiettivi di aumentare l’accessibilità alle forme di tutela dei diritti, di facilitare la conoscenza delle motivazioni delle decisioni, di ridurre il rischio di difformità inconsapevoli e rendere accettabile la durata dei processi, di organizzare razionalmente la distribuzione del carico di lavoro, ovvero se conserva il ruolo di strumento del giudice. 


Diversamente, se in nome della efficienza, della certezza e della velocità si chiede alla matematica di sostituirsi al giudice elaborando soluzioni statisticamente vincenti per ridurre la domanda di giustizia, per rendere certe le relazioni industriali o sociali, e quindi favorire il mercato sgravandolo dai conflitti, per permettere al giudice di velocizzare il suo lavoro a soli fini statistici con un occhio alla valutazione di professionalità e l’altro agli standard di rendimento, il rischio è di andare incontro a una normalizzazione tecnologica di un mestiere che richiede, al contrario, nel civile come nel penale, che il tempo sia liberato per essere dedicato all’ascolto, all’accertamento del fatto e all’interpretazione della norma applicabile secondo il dettato delle Carte.


La Proposta di Regolamento sull’utilizzo dell’Intelligenza Artificiale, approvata dal Parlamento Europeo nel giugno 2023, inquadra nei sistemi ad alto rischio (per i quali sono previste specifiche procedure di certificazione della qualità dei dati e della trasparenza) i sistemi di intelligenza artificiale destinati ad assistere le autorità giudiziarie nelle attività di ricerca e interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti, mentre vengono proibiti, perché ritenuti contrari ai diritti fondamentali e ai valori UE, il riconoscimento facciale in tempo reale (salvo nei casi di reati di terrorismo), il ricorso a sistemi di polizia predittiva tesi a proiettare nel futuro, sulla previsione del comportamento possibile, le serie statistiche di eventi passati, il ricorso a tecniche del riconoscimento delle emozioni, il c.d. social scoring, ovvero la classificazione dei cittadini sulla base del loro comportamento sociale o delle caratteristiche soggettive. 


La raccolta di banche dati e la loro libera accessibilità (open data) non devono, inoltre, consentire l’utilizzo delle informazioni per la profilazione dei magistrati per ricostruire il loro pensiero giuridico e giudiziario (se non la loro vita privata) al fine di impostare su base predittiva ipotesi di difesa. Mentre in USA e Regno Unito esistono già tools simili, la Francia, per prima, nella recente riforma della giustizia ha espressamente vietato questo utilizzo dei dati attraverso l’anonimizzazione.


I benefici dell’innovazione digitale nella giustizia italiana sono innegabili. La progressiva trasformazione del linguaggio in flusso di dati non è un’opzione, da poter scartare, ma un fenomeno sociale con il quale occorre confrontarsi per articolare un ragionamento che ne faccia un buon uso secondo i principi della Costituzione. 


Il limite oltre cui non può spingersi la giustizia predittiva è la conservazione del contesto umano della giustizia (linguaggio, relazioni, parole, emozioni) per conservarne la capacità di mediazione e pacificazione propria del processo. Il principio del giusto processo e dell’obbligo di motivazione delle decisioni richiede che sia trasparente il modo di selezione dei dati, il sistema della loro elaborazione per poterne garantire la contestazione in contraddittorio. 


Va, invece, controllata e limitata la tendenza all’automazione delle decisioni algoritmiche nel giudizio perché queste, agendo secondo un modello conservativo, creano performatività e rischiano di sostituire giudice e processo, negando spazio all’interpretazione, al conflitto tra le parti e al dissenso.


In questo scenario, è dunque indispensabile che l’innesto della tecnologia si muova in una direzione compatibile con quella tracciata dalla Carta costituzionale. 


Ci limitiamo ad enumerare alcune delle cautele che ci sembra indispensabile utilizzare, per evitare che gli equilibri costituzionale possano essere stravolti.


a)     il risultato fornito dagli algoritmi predittivi è necessariamente influenzato dalla qualità dei dati che vengono posti come input; ne discende che è indispensabile prevedere meccanismi che assicurino: (a.1) la qualità del dato; (a.2) l’indipendenza della fonte da cui provengono i dati; (a.3) l’indipendenza dell’autorità che raccoglie i dati; (a.4) l’accessibilità a tutti dei dati posti come input dell’algoritmo;


b)     è necessario scongiurare il rischio che l’algoritmo – ove usato come strumento di supporto alla decisione – possa avere un esito discriminatorio fondato su dati personali sensibili, tra cui la razza e l’estrazione sociale; si tratta, cioè, di scongiurare l’introduzione nel sistema giudiziario di bias che assumerebbero un impatto sistemico e non sarebbero legati al singolo organo giudiziario;


c)     è dunque indispensabile assicurare la verificabilità o meno della struttura dell’algoritmo; un algoritmo ha una sua struttura che non è neutra; nel concepire l’architettura di un algoritmo, il programmatore fa delle scelte che, necessariamente, influenzano il risultato dell’operazione computazionale; il programmatore può fare degli errori di progettazione; un algoritmo la cui struttura sia protetta da diritti di proprietà intellettuale e non open source è sottratto alla possibilità di controllo, verifica e confutazione da parte della parte processuale e, più in generale, della comunità degli utenti; ciò comporta non pochi problemi, tanto sotto il profilo della validazione dell’affidabilità scientifica del risultato che l’algoritmo restituisce, quanto sotto il profilo del diritto di difesa; si ritiene, pertanto, indispensabile che – laddove si voglia davvero fare un uso processuale di algoritmi predittivi da parte del sistema giudiziario (che è un sistema per sua natura pubblico) – nessun segreto possa essere posto sull’architettura degli algoritmi e dei dati che lo alimentano; 


d)     si deve poi elaborare un meccanismo che assicuri anche l’indipendenza di chi ha elaborato l’algoritmo; in questo senso, è indispensabile che sia assicurato il controllo del Consiglio superiore della Magistratura sulla designazione dei tecnici che si occupano del potenziamento digitale del settore giustizia, sull’introduzione di software e tools di supporto alla giurisdizione, sulla costituzione e sull’uso di banche dati (che senso ha costituzionalizzare l’indipendenza del giudice e la sua soggezione solo alla legge se non si coltiva analoga pretesa a chi si occupa delle medesime cose da un punto di vista tecnologico?)


e)     l’algoritmo – anche ove usato non come strumento decisorio esclusivo, ma come mero supporto alla decisione del giudice – richiede formazione; è dunque indispensabile formare il personale giudiziario che potrebbe doversene avvalersene; anche per introdurre in tutti gli operatori la consapevolezza del fatto che il giudizio è operazione essenzialmente umana e che la tentazione del soluzionismo digitale potrebbe determinare una deresponsabilizzazione del giudice, spingendolo ad adeguarsi ai precedenti, senza riconoscere che – quello a lui sottoposto – è un caso diverso che solo la sensibilità umana riesce a cogliere nel suo senso e valore; si tratta di un esito che determinerebbe una cristallizzazione della giurisprudenza, rendendola meno sensibile ai cambiamenti sociali (e, di fatto, rendendoli meno probabili). E la formazione – giuridica, tecnica, sociale e deontologica – del magistrato ci sembra indispensabile per cogliere questi “nuovi” rischi.