PHOTO
Pubblichiamo di seguito l’intervento conclusivo che l'avvocata Antonella Trentini, presidente di Unaep, ha tenuto lo scorso 16 aprile a Roma in occasione dell’incontro dedicato a “Intelligenza Artificiale: la Pubblica Amministrazione in prima linea. Esperienze a confronto”.
È del tutto plausibile immaginare che in un orizzonte temporale di un decennio l’AI possa essere utilizzata in modo generalizzato e sofisticato soprattutto in contesti di bassa discrezionalità e alto tasso di ripetitività. Accade già, ad esempio, in Estonia, ove è in sperimentazione un “giudice virtuale” che, per le controversie di basso valore (poche migliaia di euro), propone una decisione preliminare al giudice umano supervisore.
Ritengo che vi siano campi in cui l’AI potrebbe trovare applicazione immediata, come nel caso dei procedimenti amministrativi di massa, ad esempio i provvedimenti sanzionatori e\o autorizzatori. In questo contesto, l’AI potrebbe essere utilizzata per analizzare i dati forniti dagli organi accertatori, verificare la sussistenza dei presupposti normativi e generare automaticamente un provvedimento motivato. Questo modello non solo aumenterebbe l’efficienza dell’amministrazione, riducendo i tempi di attesa per i cittadini, ma garantirebbe anche una maggiore uniformità nelle decisioni amministrative, riducendo il rischio di errori o disparità di trattamento e, finalmente otterrebbe il vero risultato di deflattore del contenzioso seriale che affossa la giustizia civile.
Un altro ambito in cui l’AI potrebbe essere utilizzata è quello delle controversie amministrative relative ai ricorsi contro provvedimenti sanzionatori. In questi casi, l’AI potrebbe analizzare la documentazione presentata dalle parti, confrontarla con i precedenti giurisprudenziali e suggerire una soluzione motivata, lasciando all’autorità amministrativa o al giudice il compito di approvarla.
Nel settore civile, utilizzando i medesimi ragionamenti e criteri, l’AI potrebbe essere utilizzata principalmente nei procedimenti di modico valore, come le controversie dinanzi al giudice di pace. In questo contesto, l’AI potrebbe analizzare il materiale probatorio, applicare le norme pertinenti e proporre una bozza di sentenza, riducendo significativamente i tempi di risoluzione delle controversie.
Sebbene il settore penale sia molto peculiare e tratti questioni sensibili, ciò non toglie che una applicazione dell'AI rispettosa dei principi di “legalità algoritmica” potrebbe svolgere un ruolo significativo, usando maggiore cautela e partendo da reati di minore gravità per evitare che l’automazione comprometta i principi fondamentali del processo penale, come la presunzione di innocenza e il diritto alla difesa. L’algoritmo consente di risolvere un compito specifico a partire dai dati che un essere umano inserisce in ingresso, ecco perché l’opera umana non potrà mai essere sostituita dall’AI, ma ha il compito fondamentale di gestire, vigilare, dirigere e decidere questo passaggio epocale.
E questo, anche per evitare il fenomeno delle cosiddette “allucinazioni di intelligenza artificiale”, termine di recentissimo conio dopo la disavventura accaduta nei giorni scorsi a un collega fiorentino, il cui sistema di IA utilizzato avrebbe generato risultati errati inventando di sana pianta sentenze di Cassazione inesistenti. Ecco spiegata la necessità di grande cautela e di attribuibilità della responsabilità ad un umano del prodotto finale.
Ritengo, ad ogni buon conto, che la via sia oramai segnata: in prospettiva l’AI non potrà che evolvere fino a diventare un vero e proprio “contenitore difensivo” con un “giudice virtuale”, quantomeno per determinate categorie di controversie classificabili. Con una programmazione adeguata, un’AI potrebbe non solo applicare norme e principi consolidati, ma anche affrontare questioni innovative, analizzando nuove norme e proponendo interpretazioni coerenti con il sistema giuridico. Ad esempio, un’AI potrebbe essere programmata per bilanciare diritti costituzionali in conflitto, applicando principi come la proporzionalità e la ragionevolezza sulla base dei criteri forniti dalla giurisprudenza e dalla dottrina. Questa prospettiva richiede un livello di evoluzione tecnologica che forse non è ancora pronto, ma richiede soprattutto un quadro normativo e istituzionale chiaro e preciso, che garantisca la supervisione e la responsabilità umana.
Ciò malgrado sono convinta che ci siano ambiti in cui l’AI difficilmente potrà sostituire il difensore umano e il giudice umano, almeno nel breve termine. Pensiamo, ad esempio, alle questioni politiche o eticamente controverse, come l’eutanasia, la salute, la religione, i diritti delle minoranze o le decisioni relative alla sicurezza nazionale. In questi casi, il bilanciamento dei valori costituzionali e, in ogni caso, la “legalità algoritmica”, sono strettamente legati a fattori culturali, morali e sociali, che richiedono una esperienza e una sensibilità che l’AI, per quanto avanzata, non può replicare.
E allora, guardando al futuro, è auspicabile che la giustizia italiana, bisognosa di celerità e equità, adotti un modello ibrido, in cui l’AI e il “sistema giustizia” umano, inteso come difensore/giudice, collaborino per migliorare l’efficienza e la qualità delle decisioni, con l’AI non solo come supporto per l'analisi dei dati e la proposta di soluzioni, ma come vero e proprio ausiliario dell’avvocato e del giudice allo scopo di velocizzare una volta per tutte la giustizia italiana, lasciando l’avvocato e il giudice custodi ultimi della giustizia per garantire decisioni eque e conformi ai principi fondamentali del diritto.
Ma per entrare nel futuro col piede giusto è necessario avere un quadro normativo chiaro e la garanzia di un controllo rigoroso sull’uso dell’AI non solo a livello nazionale ma anche europeo. Siamo certi che il testo di legge attualmente in Senato che limita alle attività di supporto non nasca già vecchio? Chiediamolo all’AI.
*Presidente Unaep e direttore avvocatura civica di Bologna