Intelligenza artificiale sì, giustizia predittiva no.
Carla Secchieri, consigliera del
Cnf, lo dice a gran voce: su questo argomento si sta correndo troppo, senza valutare appieno quali potrebbero essere le conseguenze se si decidesse di “sostituire” il giudice con un algoritmo. «Pensare adesso che si possano applicare i sistemi di intelligenza artificiale alla giustizia è prematuro - spiega -. Nel far giustizia, non si può prescindere dall’uomo».
Consigliera, come si può applicare l’intelligenza artificiale alla giustizia?
Può sicuramente produrre dei benefici nell’organizzazione della giustizia. Utilizzare algoritmi allenati nell’elaborazione dei dati può certamente consentire lo sveltimento di questioni di attività di cancelleria, può aiutare a comprendere quali sono le disfunzioni del sistema, per esempio in quali tipologie di cause e in quali zone ci sono dei ritardi, per gestire meglio l’organizzazione tabellare dei giudici. Penso anche a delle chatbox che possono essere utilizzate per migliorare il servizio di cancelleria. Avere la possibilità di gestire dei dati in maniera organica può consentire una gestione ragionata e molto più veloce per andare a migliorare laddove i sistemi si rappresentano carenti. Si possono utilizzare i dati che vengono raccolti dal processo telematico per elaborarli e capire quali sono le disfunzioni che determinano l’allungamento del processo e intervenire valutando le risorse che possono servire, quindi il numero di magistrati, e quali sezioni sono più interessate da un maggior numero di procedimenti.
Qual è il rischio?
Prendiamo l’esempio francese: lì questo sistema ha dato il La per le proteste dei magistrati, che hanno ottenuto una norma che impedisce la profilazione dei giudici. Uno dei rischi ad intervenire in questo campo è proprio questo: se una sezione è poco produttiva, quei magistrati potrebbero essere schedati.
Si parla molto di giustizia predittiva: cosa bisogna aspettarsi?
È una possibilità ancora lontana, perché per noi non ci sono dati sufficienti per l’elaborazione, non c’è un algoritmo allenato, sia per la carenza, appunto, di dati sia perché gli algoritmi, oggi come oggi, non riescono ad intervenire con un linguaggio confacente all’italiano. Sostanzialmente c’è una carenza di possibilità. Ci sono poi troppe variabili che non consentono un’applicazione al nostro tipo di ordinamento, che è basato non sul precedente, ma sull’esame del caso di concreto. La giustizia predittiva, in questo momento, trova anche un ostacolo sotto il profilo dei diritti umani e dell’accessibilità delle parti ai sistemi. Se è vero che i giudici possono contare su un sistema statale, con la possibilità di investimenti importanti, la parte che non ha accesso a questi sistemi sicuramente si trova svantaggiata. Il rischio è che diventi una giustizia per ricchi, cioè per coloro che possono permettersi avvocati che siano in grado di creare i propri sistemi. Penso, ad esempio, al cliente che ricorre al patrocinio a spese dello Stato: in quel caso è escluso a priori.
Il rischio è anche quello che la giustizia si disumanizzi?
Il mito dell’intelligenza artificiale si discosta da quella che è la giustizia del caso concreto. Il precedente non riesce ad evolvere la giurisprudenza, perché l’algoritmo prende i dati del passato, li rielabora, ma dovrebbe avere anche un contatto che non può avere col caso specifico e anche con la realtà sociale.
Quindi può servire in termini statistici?
Certamente; e anche in termini di calcolo: penso alle tabelle, ad esempio. Ma voglio andare oltre: ci sono dei sistemi, che si definiscono di intelligenza artificiale, per il calcolo dell’assegno di mantenimento. Secondo me anche quello rischia di essere pericoloso: ogni famiglia è una monade a sé stante, quindi valutare l’importo di un assegno di mantenimento sulla base di un calcolo statistico è rischioso. Certo, se per intelligenza artificiale s’intende un'evoluzione della banca dati che noi attualmente abbiamo, che è la raccolta della giurisprudenza, allora ben venga. I tentativi in atto, pubblicizzati come prime applicazioni dell’intelligenza artificiale alla giustizia, sono, in realtà, grandi raccolte di dati sui quali non c’è una elaborazione.
La pandemia ha fatto emergere l’esigenza di fare un passo in avanti in termini di digitalizzazione. In questo senso l'intelligenza artificiale potrebbe tornare utile?
Certamente è utile. Ma se parliamo di come la stessa possa essere utile agli studi legali, anche in questo caso, almeno in Italia, siamo molto lontani dal poter avere una soluzione: gli unici programmi disponibili sono in ingele e uno studio che voglia creare il proprio sistema per aiutarsi nella gestione dei clienti deve investire moltissimo, con il rischio, in questo momento, che il ritorno sia davvero modesto. Ma questo non significa che tutto vada buttato via: l’importante è distinguere questa applicazione dalla giustizia predittiva.
Un altro tema è quello della possibilità di predire i reati.
Il principio è che nessuna decisione può essere completamente automatizzata, bisogna riconoscere quale parte della decisione è fondata sull’intelligenza artificiale e comunque non basta dire che la giustizia predittiva è un’attività ad alto rischio, ma andrebbe esclusa del tutto la sentenza resa dalle macchine. È necessario essere assolutamente trasparenti e che questi meccanismi siano riconoscibili e messi a disposizione delle parti che possano valutare la correttezza del ragionamento algoritmico. E questo è un problema secondo me irrisolvibile, perché un algoritmo si autoalimenta e non si conoscano gli input, forniti da un soggetto estraneo alla giustizia.