Il Dubbio di oggi

Il Dubbio del lunedì

Cassese e l’intelligenza artificiale: “Un giudice muto che disarma”

Se l’algoritmo viene applicato anche alla giustizia, le parti processuali devono poterlo conoscere. «Serve trasparenza», dice il professore. Ma le leggi italiane sono già in ritardo
Share on facebook
Share on twitter
Share on linkedin

L’Organismo congressuale forense ha organizzato un webinar dedicato all’intelligenza artificiale e alla sua evoluzione all’interno della cornice costituzionale. Un tema di grande attualità per tutta l’avvocatura, che sarà affrontato anche a Lecce in occasione del congresso nazionale forense.

All’iniziativa online dell’Ocf, moderata da Rosa Colucci, hanno partecipato, tra gli altri, l’avvocato Giovanni Malinconico, il professor Massimo Luciani e il costituzionalista Sabino Cassese. L’impatto sui diritti e sulle decisioni del giudice in sede penale dell’intelligenza artificiale è, per esempio, una nuova frontiera con la quale i giuristi saranno a chiamati a confrontarsi nel breve- medio termine. «Stiamo parlando – ha evidenziato Cassese – di uno strumento che in molti processi decisionali è già ampiamente utilizzato nell’area privata, si pensi agli investimenti finanziari. Anche lo Stato è ricorso alla intelligenza artificiale, con non grandissimo successo, in una delle decisioni più complicate, come l’assegnazione delle sedi scolastiche».

Le problematiche connesse all’intelligenza artificiale derivano dal fatto che essa è basata sull’inserimento di alcuni dati e tiene conto della relazione tra questi stessi dati. Ed è inevitabile che le decisioni basate sull’impiego dell’IA presentino vantaggi e svantaggi.

«Tra i vantaggi – ha affermato il giudice emerito della Corte costituzionale – ci sono i tempi rapidi, la base dati ampia e la garanzia di oggettività e uniformità. Gli svantaggi invece sono legati all’assenza di trasparenza e alla scarsa possibilità della partecipazione dei soggetti ai processi di decisioni. L’intelligenza artificiale presenta dei limiti intrinseci. L’interessato deve essere a conoscenza del fatto che una decisione sia stata raggiunta con l’utilizzo della stessa IA. Un altro problema riguarda la conoscibilità dell’attore principale pubblico. In un procedimento amministrativo, similare dal punto di vista tecnico ad un processo, c’è il problema della identificazione del responsabile del procedimento. Chi è che decide? Qual è il soggetto a cui viene imputata la decisione? Le difficoltà tecnologiche sono quindi presenti».

Cassese, inoltre, si è interrogato sulla necessità di avere a disposizione una norma generale abilitante. Il Regno Unito, nel 1998, ha adottato una legge, lo stesso è avvenuto nel 2016 in Francia: «In Italia abbiamo solamente spezzoni di norme per i procedimenti amministrativi, si pensi all’articolo 3- bis della legge 241/ 1990 o alla norma del codice della amministrazione digitale. Dunque, tale assenza è un problema che va risolto».

La possibilità di utilizzare l’intelligenza artificiale pone alcune questioni di revisione costituzionale del modello di giustizia e di omogeneità culturale e dei valori degli addetti al settore giustizia. «È indispensabile – ha concluso Cassese – una omogeneità culturale. Non stiamo parlando di uniformità culturale, badiamo bene. L’intelligenza artificiale è uno strumento molto delicato e richiede che tutti abbiano delle conoscenze di base. Io non credo che si debba arrivare ad una necessaria modifica costituzionale, però bisogna modificare alcuni modi di agire della giustizia. Ci deve essere sempre la possibilità di imputare la decisione ad una autorità anche se questa è un soggetto non personificato o è una procedura o ancora è un algoritmo. Sussiste, altresì, un problema di motivazione sulla decisione singola e sui criteri adottati, legati all’algoritmo inserito. Questo ultimo deve essere visibile».

Ultime News

Articoli Correlati