Tommaso Greco è ordinario di Filosofia del diritto nell’Università di Pisa. L’ateneo toscano partecipa alla “Fondazione FAIR” (Future Artificial Intelligence Research). Il professor Greco sta seguendo con attenzione quanto sta accadendo nel diritto e nella professione forense con l’approdo dell’Intelligenza Artificiale. L’accademico è autore del saggio “La legge della fiducia. Alle radici del diritto” (Editori Laterza) e a settembre ritornerà in libreria con un altro volume dedicato alla giustizia intesa come «attenzione per l'altro e, soprattutto, per i deboli».

Professor Greco, l’Intelligenza Artificiale implica dei rischi per l’affermazione e la tutela dei diritti?

Dobbiamo fare innanzi tutto una premessa: quella dell’IA è una realtà con la quale dovremo sempre più fare i conti e non avrebbe senso lasciarsi andare a considerazioni apocalittiche. Siamo di fronte, anzi, siamo già dentro, a una delle grandi trasformazioni nella storia dell’umanità e in questo senso i nostri comportamenti, la nostra stessa realtà, non potranno più essere gli stessi, come d’altra parte è avvenuto in ogni circostanza analoga della storia. La questione specifica dei diritti va letta dunque in questa cornice.

Quali diritti possono essere a rischio? E i diritti di chi?

Certamente ci saranno, e ci sono già, sfide da affrontare, come quella relativa ai diritti dei lavoratori e del loro controllo mediante algoritmi; oppure quella delle nuove forme di partecipazione e di decisione politica. Perché, ad esempio, rivolgersi al “popolo sovrano” quando una macchina può offrirci una soluzione “tecnica” ai problemi che dobbiamo risolvere? Si ripropone qui, in forme nuovissime, l’antica e sempre ricorrente questione della tecnocrazia come alternativa alla democrazia. Credo che in generale occorrerà affrontare questa sfida attrezzandoci innanzitutto dal punto di vista teorico e conoscitivo, mantenendo ovviamente fermi alcuni principi, come quello della dignità umana e della libertà delle persone.

Chat Gpt potrebbe essere in grado di creare pareri e atti per gli avvocati. Delegare a un algoritmo rischia di svilire la professione forense?

Anche qui credo che dovremo rassegnarci a trasformazioni epocali, che difficilmente potranno essere fermate. Si tratta però di capire i limiti di queste trasformazioni. Come tutto ciò che esiste, lo ricordava Simone Weil sulla scia di Spinoza, e lo ha ricordato di recente un grande giurista francese, Alain Supiot, parlando di “sovranità del limite”, anche la tecnologia più avanzata ha dei limiti, che in questo caso sono dati dal fatto che l’IA non può che operare sulla base dei dati e dei meccanismi che sono forniti e creati dagli umani. Qui, forse, entra in gioco il modo in cui concepiamo il diritto e la scienza giuridica. Se pensiamo che si tratti solo di tecniche più o meno “meccaniche”, allora la sostituzione da parte delle macchine, una cosa immaginata fin dal XVIII secolo, è ineluttabile. Quanto più, invece, saremo capaci di pensare il diritto e la funzione del giurista come qualcosa che ha a che fare con la riflessione, le valutazioni, la creazione, e persino la fantasia, tanto più ci sarà spazio per i giuristi teorici e pratici. Occorre però che ci si allontani da quella che un grande maestro come Paolo Grossi chiamava la “pigrizia del giurista”. Se si tratterà solo di mettere in fila le norme del codice, le macchine lo faranno sicuramente meglio degli uomini.

L’IA va allenata in continuazione. Può la cosiddetta tecnologia intelligente contenere in sé la cultura giuridica, secoli di dibattiti, di studi e di confronti tra giuristi?

L’Intelligenza Artificiale ha già dato prova di poter contenere molte più cose di quanto noi possiamo immaginare: da questo punto di vista è letteralmente “mostruosa” e forse può spaventare. Ma si tratta di “nozioni”, di “notizie”, di informazioni che vengono veicolate da una macchina e che possono ambire a entrare nel circuito della cultura, giuridica e non solo, soltanto se vengono incluse nel circuito della relazione tra persone, tra giuristi, tra cultori del diritto. L’IA, dunque, può fare da “grande magazzino” di dibattiti e studi, e può anche assemblarli in maniera “intelligente”, ma affinché tutto questo prenda vita c’è bisogno che siano gli uomini e le donne ad assumere questo patrimonio e trasformarlo in motivo e occasione di ulteriore confronto e sviluppo. Trasportare quei secoli di dibattiti, di confronti verso il futuro, questo è il compito che rimane all’uomo.

La centralità dell’uomo, quindi, è imprescindibile tanto nella professione forense quanto nell’IA. In quest’ultima, comunque, occorre sempre il prezioso contributo umano per creare e allenare l’algoritmo?

Certo, la centralità dell’uomo rimane eccome! Non bisogna dimenticarlo, non solo per ragioni, diciamo così, “romantiche” o umanistiche, ma anche e soprattutto per essere consapevoli dei meccanismi di potere che le nuove tecnologie creano e consolidano, dandogli per giunta una patente di assoluta ineluttabilità. Gli algoritmi sono creati e “allenati” dagli esseri umani, ci sono dentro tante decisioni prese a monte, ci sono gerarchie di valori che li determinano e li portano prima ad essere sviluppati in una certa direzione e poi a determinare certe scelte e non altre. Uno dei grandi temi di questa sfida è quello della trasparenza. Paradossalmente, una società resa assolutamente visibile, grazie all’IA, rischia di essere quella meno trasparente perché rimangono opachi, anche per la loro difficoltà tecnica, i percorsi attraverso i quali essa viene costruita. Qui entra in gioco anche il tema della responsabilità per le scelte che vengono compiute e per le loro conseguenze: un tema che forse dovremo ripensare in termini nuovi.

Lei è un filosofo del diritto. Una intelligenza artificiale può sostituire millenni di pensiero filosofico e giuridico? È una contraddizione in termini voler sostituire l’intelligenza umana che conserva la sua primaria importanza?

Forse, anzi certamente, non siamo in grado di immaginare tutto quel che l’intelligenza artificiale potrà fare in futuro. Ci aspettano mondi assolutamente inediti e l’IA sta già offrendo un nuovo scenario anche al pensiero filosofico. Una cosa però mi pare altrettanto certa: riusciremo a conservare uno spazio per ciò che è umano se saremo in grado di evitare gli automatismi e i ragionamenti binari. La logica dell’IA è dicotomica, digitale appunto, e in quanto tale non può dare spazio alle sfumature e alle particolarità, a meno che non siano anche queste assumibili all’interno dello schema. Il rischio, dunque, è di veder trascinato il nostro pensiero, filosofico, giuridico, politico, sociale, da questa logica: le nette contrapposizioni, “noi-loro”, “sì-no”, “dentro-fuori”, che pure fanno parte del nostro modo di ragionare, ad esempio attraverso regole, ci costringono a digitalizzare il nostro pensiero, sacrificando tutto ciò che invece sta in mezzo o che sfugge alle alternative predefinite. Ecco, tutto questo potremo invece valorizzarlo se saremo in grado di assumerci la responsabilità delle decisioni. Penso anche al modo in cui funzionano i nostri ordinamenti giuridici.

A cosa si riferisce nello specifico?

L’idea che la giustizia possa risultare da una meccanica applicazione di norme, e che quindi possa e debba sempre essere bendata, ci porta dritti all’IA e ai suoi automatismi. Ma se torniamo a una concezione della giustizia che guardi alla sostanza dei rapporti da regolare, e quindi capace di vedere gli esseri umani in carne e ossa, allora avremo sempre bisogno di decisioni assunte da uomini e donne, e di un pensiero che fondi e alimenti quelle decisioni. Il che significa anche che avremo bisogno di un percorso di formazione che sia capace di trasmettere le conoscenze che vengono dalla nostra lunga storia. Se i corsi di giurisprudenza si trasformeranno in percorsi puramente tecnici, che guardano al solo obiettivo di una applicazione del diritto resa quanto più possibile efficiente dall’uso dell’IA, come in certi casi pare di poter intuire, allora vuol dire che saremo noi stessi a consegnare all’IA i nostri destini.