Gli ingenti investimenti tecnologici della Cina stanno riguardando anche la giustizia ed impensieriscono i servizi segreti occidentali. A partire da quelli di Gran Bretagna e degli Stati Uniti. Le attenzioni del governo cinese sono rivolte all’applicazione dell’intelligenza artificiale nei procedimenti penali. Una rivoluzione che con l’onda lunga della globalizzazione del Dragone potrebbe interessare da qui a poco tempo l’Europa e il resto dell’Occidente. Poche settimane fa il sito del South China Morning Post ha dato la notizia del particolare attivismo della Procura del popolo di Shangai Pudong. Qui gli sviluppatori stanno mettendo a punto un sistema che doterà la pubblica accusa di una macchina capace di individuare otto reati molto comuni a Shangai, come la guida pericolosa e le frodi con le carte di credito. Non saranno esclusi nel futuro prossimo aggiornamenti dell’algoritmo per altri reati. Nel robot sono stati memorizzati circa 17mila casi giudiziari, che coprono un arco temporale di cinque anni, dal 2015 al 2020. La precisione del pm robot si aggira attorno al 97%. Si tratta, però, sempre di una macchina e alcuni interrogativi sorgono spontanei in caso di errore di valutazione. Chi ne risponderà? Potranno attribuirsi responsabilità ad un algoritmo, senza dimenticare che questo viene creato da un programmatore e utilizzato da un magistrato? Abbiamo parlato degli scenari cinesi con l’avvocato Luigi Viola, esperto di giustizia predittiva, e Salvatore Colella, sostituto Procuratore della Repubblica presso il Tribunale di Matera. «Le tecnologie, anche le più avanzate, sono strumenti al servizio dell’uomo», riflette l’avvocato Viola, che di recente ha pubblicato in cinese il suo libro “Interpretazione della legge con modelli matematici”, risultato best seller top five RakutenKobo. «Le nuove tecnologie – dice Viola - non devono spingersi fino a sostituire una decisione umana, come quella di accusare o non accusare. Credo che sostituire il pubblico ministero umano con un robot sia un allontanamento dalla realtà, almeno per due ragioni. La prima riguarda il giudice, che deve valutare le prove. Ciò implica capacità di pesare anche elementi soggettivi. A titolo meramente esemplificativo si pensi ai “motivi abietti o futili” di cui all’articolo 61, numero 1, del Codice penale. Abbiamo di fronte un concetto che difficilmente può essere automatizzato, ma necessita di una ponderazione umana. La seconda ragione è che il sistema con cui viene costruita l’intelligenza artificiale, che in Cina dovrebbe procedere all’accusa, rischia di essere fallace perché basata su una raccolta di dati precedenti. Abbiamo l’utilizzo del metodo induttivo che è fisiologicamente fallace. Questo metodo funziona, appunto, tramite la raccolta di un numero enorme di casi giudiziari, che servono per addestrare l’intelligenza artificiale. Purtroppo, così facendo, dinanzi ad un caso inedito, per contenuto oppure per strategia difensiva, il robot si basa sul passato, non tenendo conto della specificità del singolo caso. La conseguenza è che finisce per trattare una situazione giuridica non già per come è, ma per come se fosse una precedente. Questa fallacia determina l’ingiustizia di trattare una situazione diversa, come se fosse uguale ad una precedente». Viola non crede che in Italia si possa arrivare ad un pubblico ministero senza sembianze umane. «Esiste nel nostro ordinamento – evidenzia - un principio di parità delle armi nel processo, in uno con il diritto inviolabile alla difesa, in base all’articolo 24 della Costituzione. Ebbene, è lapalissiano che, se vi dovesse essere un pm robot, allora verrebbe vulnerata la parità delle armi perché l’accusa godrebbe di uno strumento di cui la difesa non dispone e, per quello che è dato sapere, non potrebbe neanche sindacarlo tramite verifica dell’algoritmo e della correttezza dei dati inseriti». Diverso il parere del magistrato Salvatore Colella in merito all’influenza tecnologica nel settore della giustizia da parte della Cina e all’arrivo del pm robot. «Non solo sono certo che possa arrivare in Europa – afferma il pubblico ministero in servizio a Matera -, piuttosto la ritengo una certezza inevitabile. Quello che ritengo siano incerti sono soltanto i tempi, che possiamo assumere non saranno brevissimi, poiché la nostra storia e la nostra attitudine culturale, anche in materia giuridica, è totalmente diversa da quella asiatica e noto che in ambito umanistico vi sia sempre una minore permeabilità alle innovazioni». Il fare posto all’intelligenza artificiale in sostituzione del pubblico ministero pone questioni delicatissime. «Non sono un informatico – commenta Colella -, ma è un campo che mi appassiona molto e sul quale mi tengo molto informato. Ritengo che l’intelligenza informatica abbia potenzialità enormi, che sfuggono ai più, ma forse anche agli stessi informatici e oggi trova applicazioni in settori disparati senza nemmeno saperlo. Il limite maggiore, ma che appartiene forse all’uomo piuttosto che alle macchine, credo sia il momento dell’auto-apprendimento. Allo stato dell’arte penso che possa essere un validissimo aiuto per il Pubblico ministero nel momento dell’acquisizione ed analisi dei dati ma non possa sostituirlo nel momento decisionale». Secondo Colella, occorre avere un approccio aperto rispetto alle novità in arrivo e non osservarle con timore. «Attualmente – spiega - le applicazioni di intelligenza artificiale fondano il momento cognitivo sull’analisi dei dati empirici ed in questo non differisce molto dall’uomo, tuttavia quest’ultimo apprende e metabolizza dati su ogni materia e momento della propria esistenza ed elementi del suo patrimonio cognitivo spesso entrano in gioco in meccanismi decisionali anche in materie totalmente diverse da quelle alle quali tali dati si riferiscono. In una scena del crimine, nell’interrogatorio di un indiziato, solo per fare qualche esempio, spesso sono molto importanti le sensazioni ed il tono di voce. Ritengo, quindi, che la difficoltà maggiore sarà capire come dire alle macchine di selezionare nell’algoritmo decisionale pure dati e fattori che non si può prevedere possano avere rilevanza».