L’Artificial Intelligence Act apre nuovi scenari economici e giuridici. L’Europa ha fatto una scelta coraggiosa, destinata a incidere sulle nostre vite. Secondo Lucilla Gatt, ordinario di diritto privato e diritto delle nuove tecnologie nell’Università degli Studi “Suor Orsola Benincasa” e direttore del Research Centre of European Private Law, le prospettive del regolamento europeo sono “ottime”.

«Questa volta – dice Gatt - non sono solo parole ma anche fatti: con l’AIAct l’Unione Europea diventa il riferimento non tanto e non solo di una regolamentazione generale di una delle tecnologie più disruptive della storia dell’umanità ma, più incisivamente, si impone come spazio territoriale e ordinamentale dove, entro breve tempo, si dovranno sviluppare strumenti per classificare le AI in base al livello di rischio di danno sull’essere umano e sull’ambiente, nonché strumenti che ne misurino l’impatto sui diritti fondamentali dell’uomo. In Europa alcune forme di AI sono state bandite in quanto è stato giudicato troppo alto il loro livello di impatto negativo sui diritti fondamentali mentre per altre sarà necessario dimostrare volta per volta che l’immissione sul mercato è comunque compatibile con il rispetto di questi diritti».

Secondo la professoressa Gatt, a Bruxelles è stata fatta una «scelta etica chiara, nel senso di una prevalenza della dimensione dell’interesse pubblico su quella dell’interesse privato». L’avvocatura saprà certamente ritagliarsi un ruolo da protagonista. «Cambia – commenta Lucilla Gatt - la prospettiva della tutela dell’essere umano e dell’ambiente di fronte allo sviluppo tecnologico. L’approccio è quello di una tutela ex ante, che si concretizza in processi di misurazione del livello di rischio e di certificazione della compliance ai diritti fondamentali sul modello del GDPR. Gli avvocati saranno chiamati a contribuire alla creazione di questi strumenti di misurazione del rischio e della compliance ai fundamental rights, nonché a rivedere le categorie civilistiche di quantificazione del danno derivante da un prodotto dotato di AI, dando il giusto peso all’inosservanza totale o parziale di questi obblighi preliminari di misurazione. È un mondo nuovo quello che si apre agli avvocati, abituati a ragionare in termini di risarcimento ex post. E, inoltre, nell’era degli standard e degli indici di misurazione gli avvocati dovranno sempre più ricorrere a programmi di quantificazione automatica del danno».

L’impatto riguarderà il lavoro negli studi legali, nella redazione degli atti e nel processo. «Le applicazioni dotate di AI in ambito giuridico – conclude la professoressa Gatt - vengono classificate nell’AIAct come ad alto rischio di impatto dannoso sull’essere umano e saranno, dunque, tra le prime a dover essere sottoposte ad una valutazione di conformità ai diritti fondamentali. Allo stato, dunque, lo sviluppo alquanto scomposto dell’AI in ambito forense e giudiziario dovrebbe andare incontro ad un momento di pausa o, meglio, ad una fase di adeguamento alla nuova regolamentazione europea».

L’accordo trovato tra il Parlamento europeo e il Consiglio continuerà a porre al centro le persone, che non dovranno essere danneggiate dall’IA. Daniela Piana, professoressa ordinaria di Scienza politica e riti della legalità nell’era digitale presso l’Università di Bologna (è anche componente del comitato Giustizia Ocse), evidenzia il ruolo svolto dall’Europa: «L’intelligenza artificiale rappresenta oggi e per il futuro un orizzonte, un ambito di scoperta e l’origine di molte sfide alle garanzie così come le abbiamo pensate ed attuate sino ad oggi. Gli sviluppi recenti che si sono prospettati a livello internazionale, prima ancora che europeo, ci hanno obbligato a riflettere su quale sia l’asticella al di sotto della quale non siamo disposti ad andare rischiando di sacrificare la tutela della persona al raggiungimento di obiettivi connessi all’efficienza, all’innovazione e al profitto.

Ci sono stati diversi riscontri in diverse aree del mondo. Sappiamo che la Cina e gli Stati Uniti hanno intrapreso la loro strada nella creazione di regole in materia di IA. Il contesto dei Paesi africani sta elaborando riflessioni importanti che è opportuno studiare. L’Unione europea ha deciso di tenere alta l’asticella, alta come è nella tradizione del costituzionalismo europeo. Nel rispetto dei diritti fondamentali del principio della Rule of Law. Dobbiamo però essere realisti. L’Unione europea è una arena ancorata a principi fondamentali e attraversata da interessi, tensioni, conflitti. Ora un accordo è stato raggiunto. Il testo che ci troviamo dinnanzi non è testo di legge. Ma è un equilibrio di cui occuparsi e per il quale approntare le capacità attuative».

Per gli operatori del diritto, a partire dagli avvocati, si pongono alcune questioni in merito all’utilizzo dell’Intelligenza Artificiale. «L’avvocatura - evidenzia la professoressa Piana - è depositaria di una cultura della garanzia nella giurisdizione in una dinamica dialettica. Deve però essere costruito un percorso di consapevolezza in merito alla professionalità forense e su come un algoritmo potrà intervenire e cosa attiene alla cruciale “riserva di umanità”, ossia l’esercizio dell’autonomo giudizio dal quale dipende la legittimazione stessa del rendere giustizia».

E rendere giustizia non è un calcolo. «Dipende – conclude Daniela Piana - dall’autonomo e critico esercizio del ragionamento umano, avente una intrinseca dimensione istituzionale che bypassa quella soggettiva individuale. Un ragionamento che si basa sul dubbio, una delle forme dell’intelligenza professionale, deontologica ed istituzionale di cui l’avvocatura è voce nella giurisdizione. Dobbiamo costruire una cultura che mette le proprie radici nella deontologia, nella conoscenza e nella professionalità. Senza dimenticare la condivisione di certificazioni di strumenti di cui l’avvocatura si può avvalere e di cui è in grado di darne conto».