https://youtu.be/aHL4CSlLKdc

*Servizio video di Lorenzo Tardioli, collettivo Lorem Ipsum

«L’intelligenza artificiale può sbagliare e incappare negli stessi pregiudizi dell’uomo». Lo spiega Giuseppe Vitrani, membro della Fondazione italiana per l’innovazione forense. La tappa zero del viaggio in bicicletta di Roberto Sensi è a Torino. Il tour “Sui pedali della libertà – Oltre il pregiudizio” comincia con un pregiudizio di ultima generazione, quello dell’intelligenza artificiale. Vitrani mette in guardia dal rischio di trovarsi a ricostruire una perfetta sintesi degli errori dell’uomo: una macchina del pregiudizio 2.0.

Avvocato Vitrani, cosa si intende per intelligenza artificiale?

Un’ottima sintesi di questo concetto è data dalla proposta di regolamento elaborata quest’anno dalla Commissione europea, ovvero: un sistema che può, per una determinata serie di obiettivi definiti dall’uomo, generare risultati quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui tali sistemi interagiscono. I sistemi basati sull’intelligenza artificiale possono quindi essere intesi come software che agiscono nel mondo virtuale ( assistenti vocali, motori di ricerca, sistemi di riconoscimento biometrico) o come software incorporati in dispositivi hardware ( robot avanzati, auto a guida autonoma, droni).

E cosa ha a che fare l’intelligenza artificiale con il diritto?

L’intelligenza artificiale può astrattamente incontrare il diritto in almeno tre ambiti applicativi: analisi dei precedenti giurisprudenziali, giudizio predittivo e revisione di testi. Nel primo caso possiamo pensare ad un sistema in grado di analizzare una enorme mole di sentenze al fine di trarre l’orientamento maggioritario su questioni oggetto di contenzioso, nel secondo caso abbiamo sistemi in grado di formulare un giudizio sul comportamento che potranno avere determinati soggetti in futuro, nel terzo caso si tratta invece di software in grado di analizzare grandi quantità di documenti, utili soprattutto in caso di analisi di bilanci societari.

Nelle applicazioni attuali si può parlare di intelligenza artificiale o semplicemente di utilizzo di algoritmi?

Dipende da cosa intendiamo per “intelligenza artificiale”. Se immaginiamo un sistema che davvero pensi come un umano, che sia in grado di riconoscere e correggere i propri errori, direi che siamo ancora molto lontani da simili applicazioni, almeno nel campo del diritto.

Dunque l’attuale applicazione non può dirsi “intelligente”?

Al momento possiamo parlare più che altro di utilizzo di algoritmi, anche se di una specie particolare, quelli finalizzati al cosiddetto “machine learning” e dunque di software programmati per imparare e migliorare le tecniche di funzionamento grazie all’esperienza.

Qual è il rapporto tra intelligenza artificiale e pregiudizi? Si tratta davvero di un sistema al di sopra dei bassi istinti umani?

Qui citerò un passo di un’ottima relazione sul tema, scritta dall’amico e collega Roberto Arcella. Il problema dei pregiudizi ( o bias), vale a dire dell’influenza che l’algoritmo riceve nel proprio apprendimento dai giudizi forniti dall’utente, pervenendo in tal modo a giudizi distorti basati su preconcetti o pregiudizi in contrasto con l’imparziale valutazione dei fatti, è reale. Come l’uomo, anche l’intelligenza artificiale è incline all’errore, non perché prenda decisioni in base a motivazioni illogiche, ma perché l’errore umano può innestarsi nel processo di apprendimento automatico, sia nella fase di creazione dell’algoritmo sia nella fase di interpretazione dei dati e nelle successive interazioni.

Un esempio?

Per quanto riguarda il nostro Paese possiamo pensare alla riforma della “buona scuola” come caso emblematico in cui venne adottata una decisione sulla base di un algoritmo ( l’assegnazione delle sedi di insegnamento) che si prestò a impugnazioni davanti al giudice amministrativo a causa del fatto che alcuni docenti si videro assegnate sedi a volte lontanissime dalle loro residenze. Ciò ha dato tuttavia modo al Consiglio di Stato di enucleare alcuni principi che devono presiedere l’utilizzo delle decisioni algoritmiche nell’attività amministrativa, quali ad esempio la piena conoscibilità delle metodiche di formulazione dell’algoritmo stesso e il carattere non discriminatorio dello stesso.

Quali soluzioni si potrebbero adottare per evitare i rischi e favorire un’intelligenza artificiale equa?

Più che di soluzioni possiamo parlare di principi per la realizzazione di sistemi che adottano l’intelligenza artificiale. In ambito giudiziario, ad esempio, la Carta etica europea prevede che debbano essere rispettati i diritti fondamentali dell’uomo, oltre che i principi di trasparenza, imparzialità ed equità.

Certo, anche i professionisti dovranno fare la loro parte e in un certo senso “aiutare” le applicazioni, sia venendo coinvolti nella realizzazione dei sistemi sia elaborando modelli standard per la redazione di atti e provvedimenti. Sono convinto che ciò aiuterebbe l’intero mondo della giustizia, non solo le applicazioni di intelligenza artificiale.

C’è il rischio che un giorno la decisione dell’intelligenza artificiale varrà più di quella di un giudice o di un legislatore?

Sinceramente ad oggi non vedo questo rischio per due ordini di ragioni: la prima tecnologica, la seconda normativa. Ritengo che al momento si sia lontani dalla realizzazione di sistemi in grado di emettere provvedimenti al posto di un giudice. Al di là degli aspetti etici, direi che proprio lo stato attuale delle conoscenze non consente di ipotizzare simili applicazioni.

In secondo luogo dobbiamo ricordare che l’argine è costituito proprio dall’uomo, cui spetta la responsabilità di governare questi processi attraverso norme ad hoc in grado di prevenire tali rischi; vanno in tale direzione, ad esempio, le previsioni della proposta di regolamento europeo elaborate quest’anno dalla Commissione.