Il monito
Starmer
Prevenzione della criminalità con l’ausilio dell’Intelligenza Artificiale. Il ministero della Giustizia britannico (MoJ) ha indicato la rotta per tracciare i profili dei bambini che in futuro potrebbero commettere reati ed essere ospitati nelle prigioni di Sua Maestà. Il tutto avvalendosi dell’algoritmo. Il progetto coinvolge i minori più a rischio, potenziali criminali, che verranno identificati grazie a banche dati già esistenti chiamate a dialogare con le informazioni in possesso di diverse autorità e dipartimenti governativi.
Nello specifico verranno incrociati i dati del servizio sanitario, dei servizi sociali, della polizia, dei ministeri del Lavoro e dell’Educazione. Da Petty France, sede del ministero della Giustizia del Regno Unito, viene fatta una premessa: la prevenzione criminale, attraverso l’Intelligenza artificiale, avverrà “in maniera etica e morale” e servirà a comprendere meglio le “cause profonde della criminalità”. Nessuna discriminazione, al tempo stesso, nel verificare la propensione a delinquere di determinati soggetti. È concreta però l’esigenza che certi campanelli d’allarme non vengano accantonati.
In tale contesto i modelli basati sull’IA possono offrire un contributo prezioso. Il MoJ assicura che un processo decisionale etico garantisce un “trattamento equo e umano, contribuendo a tutelare i diritti individuali e a preservare dignità e rispetto”. “Ciò – si legge sul sito del ministero - è particolarmente importante nel contesto del sistema di giustizia penale. L’etica dell’Intelligenza artificiale e dei dati è fondamentale per garantire che la tecnologia serva l’umanità in modo equo, sicuro e vantaggioso. Affrontando questioni quali equità, trasparenza, responsabilità e sicurezza, l’etica aiuta a prevenire danni, mitigare i rischi e costruire sistemi che riflettano valori umani condivisi”.
Per quanto riguarda la criminalità minorile e il suo contrasto, Downing Street, attraverso il ministero della Giustizia, sente forte l’esigenza di favorire un’evoluzione del sistema penale. In un documento di 25 pagine, a firma del ministro David Lammy e intitolato “Un moderno sistema di giustizia minorile. Fondamenta adatte al futuro”, si fa riferimento, seppur in maniera vaga, ad alcuni modelli utili all’”apprendimento automatico” e alla “analisi avanzata” per “supportare un intervento precoce e appropriato” per il contrasto alla criminalità minorile. Le misure verranno presentate nel dettaglio in primavera. È stato il Times ad anticipare la volontà del dicastero della Giustizia di avvalersi dell’Intelligenza artificiale. Una fonte governativa, soffermandosi su alcuni ritardi accumulati nel processo di profilazione, ha riferito al quotidiano britannico che ci «sarà un cambiamento radicale nel modo in cui investiamo denaro e risorse nella prevenzione». «Non si tratta di criminalizzare le persone – ha aggiunto l’interlocutore anonimo del Times -, ma di garantire che gli allarmi nel sistema siano meglio compresi e che i dati e la modellazione dell’Intelligenza artificiale possano farlo molto meglio».
Salvatore Sica, ordinario di Diritto privato nell’Università di Salerno, mostra cautela e scetticismo in merito all’uso dell’IA, così come previsto dalla giustizia del Regno Unito. Nell’Europa continentale il quadro normativo è diverso e molto chiaro. «In base alle notizie che ci giungono – dice il professor Sica -, ritengo che quanto approntato dal ministero della Giustizia britannico sia assolutamente difforme rispetto all’unica legge esistente al mondo in materia di Intelligenza artificiale. Mi riferisco al Regolamento europeo che fa divieto di utilizzare l’IA per profilare singoli soggetti. Il Regolamento europeo non ha necessità nemmeno di una legge di attuazione nazionale, è già parte degli ordinamenti nazionali degli Stati Ue ed è pertanto categorico. Nutro pure qualche dubbio in termini etici in riferimento all’utilizzo di un meccanismo come quello previsto in Gran Bretagna».
Il giurista dell’Università di Salerno predica cautela quando si parla dell’utilizzo dell’IA in determinati ambiti. «Sembra che il tema dell’Intelligenza artificiale – riflette il professor Sica - venga trattato senza una sufficiente cognizione del presupposto tecnico del suo funzionamento. Tutti discorrono ormai di Intelligenza artificiale, ma pochi ne conoscono effettivamente il meccanismo di funzionamento. Il risultato è quello di andare incontro ad una deriva o una tentazione di tipo classificatorio, proponendo un’innovazione del tutto sganciata da determinati valori di riferimento. Ma badiamo bene, non si tratta di bloccare lo sviluppo; si tratta di ancorarlo a due profili ineludibili rispetto alla persona umana e ai valori di fondo di ciascun ordinamento che riflettono scelte etiche. Giova ricordare che il Regolamento europeo e anche la legge italiana sull’Intelligenza artificiale fanno divieto di utilizzare l’IA nel settore della giustizia in chiave di alternativa alla valutazione del caso concreto da parte del giudice. L’Intelligenza artificiale può avere un'attitudine statistica, ma sul macro-dato può servire nell’istruttoria ai soli fini della valutazione degli elementi di fatto e di diritto e non può sostituirsi assolutamente all’attività degli avvocati e alla valutazione del giudice».
Ogni iniziativa legata all’applicazione dell’Intelligenza artificiale tende a creare preoccupazioni e anche polemiche. L’approccio alla materia è spesso allarmistico? «L'allarmismo – conclude Salvatore Sica - non risolve nulla. Nella disputa tra tecno-entusiasti e neoluddisti esiste una terza via, che è quella della consapevolezza della novità tecnologica ormai in atto e della inarrestabile riaffermazione del diritto come limite e come sintesi di valori. A mio avviso, quest’ultimo è l’approccio corretto: tiene a bada l’allarmismo e non ostacola l’espansione tecnologica».