L’Intelligenza artificiale è già una realtà nei tribunali di molti Paesi ed è diventato un tema sempre più attuale anche in Italia, che oggi più che mai richiede un intervento attento dell’avvocatura. Il Cnf, con la sua Commissione Diritti Umani, ha organizzato il convegno dal titolo “Intelligenza artificiale e diritti fondamentali”, diviso in due giornate. La prima parte, il 26 maggio, ha affrontato la complessa ed intricata, quanto affascinante, questione dell’impatto dell’uso dell’intelligenza artificiale dal punto di vista dei principi generali, collegata allo sviluppo umano ed alla tutela dei diritti fondamentali, illustrandone gli aspetti positivi ma anche le criticità, che il giurista deve conoscere per porsi delle domande e degli obiettivi formativi in modo responsabile ed accurato. La seconda giornata, il 10 giugno, è dedicata alla giustizia predittiva e all’equo processo. L’argomento della predittività dell’esito del giudizio, tramite l’applicazione dell’ausilio di algoritmi, assume estremo rilievo proprio perché viene ispirato dalla necessità di esplorare possibilità di trovare una garanzia di certezza nel diritto e, quindi, nelle relazioni umane, alla luce delle nuove tecnologie emergenti. Ma gli scenari che si prospettano sono sofisticati, complessi e profondamente articolati, e non possono che porre gli avvocati, e tutti gli operatori del diritto, nella posizione di voler assumere un ruolo attivo nella conoscenza e nell’esperienza dell’elaborazione dell’intelligenza artificiale. Diventa importante, infatti, la formazione del giurista, affinché egli possa identificare compiutamente i pericoli, ma anche contribuire a garantire la tutela dei principi etici che devono esistere alla base della predisposizione, dell’uso e della funzione dell’algoritmo. Si pensi, poi, che l’essere umano, e in particolare il giurista, si dovrà confrontare non solo e non tanto con l’utilizzo di software e applicativi informatici semplici, guidati e controllati dall’uomo stesso, in grado di comprenderne i meccanismi decisionali, di correggerne gli errori e di aggiornarli, ma anche e sempre di più con sistemi altamente sofisticati. L’evoluzione irreversibile del sistema di intelligenza artificiale, infatti, è quella di svilupparsi in modo autonomo grazie al meccanismo di machine learning, ossia la capacità del sistema di auto-regolarsi, imparare dai propri errori, auto-correggersi e svilupparsi in modo autonomo. Questo meccanismo porterà a risultati imprevedibili, svincolandosi dal controllo di chi l’ha programmato, che non sarà pertanto più in grado di comprendere il processo dell’algoritmo e le sue reazioni. Ci si domanda, quindi, come il principio di trasparenza, invocato anche nella recente bozza di Regolamento europeo, possa coesistere, oltre che con la mancanza di motivazione esplicita della decisione dell’algoritmo, anche con l’imprevedibilità del percorso decisionale dei sistemi di Intelligenza Artificiale. A oggi, peraltro, nell’ambito della giustizia predittiva, i sistemi degli algoritmi si presentano ancora relativamente semplici in quanto vengono sviluppati prevalentemente secondo un’impostazione statistica-giurisprudenziale: le decisioni future vengono previste in base ai precedenti giurisprudenziali ed in termini statistici-probabilistici. I progetti che conosciamo in Italia, da Venezia, a Bari, a Brescia sono basati proprio su questo modello. Modelli che, chiaramente, possono potenzialmente funzionare se utilizzati come strumenti integrativi, e non sostitutivi, dell’attività del giudice: se per un verso l’Intelligenza Artificiale può infatti favorire la prevedibilità e l’uniformità dei giudizi, dall’altro rimane necessario il controllo da parte dell’essere umano. Per quanto riguarda l’affidabilità del sistema di Intelligenza Artificiale, infatti, non possiamo non ricordare il noto caso americano relativo al sistema Compas, ossia il software di proprietà di una società privata che valuta il rischio di recidiva e la pericolosità sociale. L’algoritmo si basa su un’analisi statistica ottenuta inserendo dati relativi alla storia personale e giudiziaria del soggetto, valutati unitamente ai dati statistici di campioni di popolazione. L’applicazione del sistema ha portato anche a pesanti condanne, come nel caso State v. Loomis, Corte Suprema del Wisconsin, avendo il giudice utilizzato i dati forniti dall’IA che presentava l’imputato come una persona ad alto rischio. L’appello di Loomis lamentava che i risultati del software non gli avevano garantito un equo processo, sollevando numerose questioni sulla validità del sistema, tra cui l’impossibilità di confutare scientificamente l’uso dei dati processati, in quanto i meccanismi di rielaborazione del programma sarebbero stati coperti dal brevetto e dal segreto industriale. L’uso del sistema veniva altresì criticato perché è stato dimostrato che i dati forniti dall’algoritmo hanno offerto indicazioni discriminatorie, attribuendo un rischio maggiore di recidiva o di pericolosità, ad esempio, alle persone di colore rispetto ai bianchi. La Corte, come sappiamo, ha rigettato l’appello affermando la possibilità dell’uso dell’algoritmo unicamente come mero ausilio del giudice, che deve valutare i risultati del sistema insieme ad una moltitudine di altri fattori. Non vi è dubbio, però, che il precedente americano ha lasciato spazio a forti critiche, non ultima quella della prevalenza dei valori di mercato rispetto alla tutela dei diritti fondamentali. A fronte dell’esperienza finora maturata, pertanto, bisognerà interrogarsi sui nuovi diritti costituzionali e sui principi etici da tutelare. Le grandi potenzialità degli algoritmi, invero, non possono essere esenti dalla determinazione e dalla valutazione del rischio collegato alla loro applicazione. La Commissione europea ha presentato il 21 aprile 2021 la proposta di regolamento sull’approccio europeo in materia di intelligenza artificiale, che valuta i rischi dei prodotti che adottano il software di IA, al fine di salvaguardare i valori e i diritti fondamentali, e stabilisce meccanismi di tutela. La proposta di Regolamento prevede infatti specifiche definizioni del sistema di IA in base al rischio di impatto negativo su diritti fondamentali quali la libertà, la dignità umana, l’uguaglianza, la democrazia, il diritto alla non discriminazione, la protezione dei dati ed, in particolare, la salute e la sicurezza. A seconda del tipo di rischio il Regolamento prevede delle soluzioni restrittive, fino alla proibizione dei prodotti stessi nel caso di rischi inaccettabili .In conclusione, per rendere “umano-centrica” l’intelligenza artificiale, così come auspicato anche dall’Unione europea, sarà necessario un approccio critico ed una previsione ferrea del rispetto dei valori etici e dei diritti fondamentali, oltre che un uso saggio e consapevole del sistema, come strumento di potenziamento, e non di sostituzione, dell’intelligenza umana. *di Tiziana Ceschin, componente della commissione diritti umani del CNF