Riportiamo di seguito un ampio estratto della lectio magistralis pronunciata al G7 delle avvocature riunito ieri a Roma dal presidente emerito del Cnf Guido Alpa.

Curiosamente la prima questione che si presenta è proprio la definizione della materia, cioè in che cosa consista l’IA che è oggetto di normazione. Gli undici principi elaborati dall’edizione giapponese del G7 non definiscono l’IA, forse per non costringere in un enunciato sintetico tutti i possibili sviluppi che questo complesso di tecniche può comportare. D’altra parte, se si prescinde dalla definizione descrittiva, si incontrano diverse alternative. Anzi, più che alternative, si tratta di significati che si integrano vicendevolmente. Per passare in rassegna le definizioni più significative, vi sono quelle offerte dalle enciclopedie o dai mezzi di comunicazione di massa. Il Parlamento europeo ha cambiato varie volte le definizioni nei testi che si sono succeduti. Nel 2020 aveva definito l’IA come “l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività”, dando quindi un contenuto meccanico assai circoscritto e spiegando che l’intelligenza artificiale permette ai sistemi di capire il proprio ambiente, mettersi in relazione con quello che percepisce, risolvere problemi e agire verso un obiettivo specifico. Il computer riceve i dati (già preparati o raccolti tramite sensori, come una videocamera), li processa e risponde.

Ora invece nel Regolamento Ue la definizione ufficiale parla di “sistema di IA” cioè di un sistema automatizzato progettato per funzionare con livelli di autonomia variabili, che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali. È una definizione assai vaga che si avvicina a quella dell’executive order di Biden (...). Negli atti europei si fa riferimento alle materie a cui si applica l’IA, ed essa ci appare quindi più vicina, familiare e meno misteriosa: “L’IA consiste in una famiglia di tecnologie in rapida evoluzione che contribuisce al conseguimento di un’ampia gamma di benefici a livello economico, ambientale e sociale nell’intero spettro delle attività industriali e sociali. L’uso dell’IA, garantendo un miglioramento delle previsioni, l’ottimizzazione delle operazioni e dell’assegnazione delle risorse e la personalizzazione delle soluzioni digitali disponibili per i singoli e le organizzazioni, può fornire vantaggi competitivi fondamentali alle imprese e condurre a risultati vantaggiosi sul piano sociale e ambientale, ad esempio in materia di assistenza sanitaria, agricoltura, sicurezza alimentare, istruzione e formazione, media, sport, cultura, gestione delle infrastrutture, energia, trasporti e logistica, servizi pubblici, sicurezza, giustizia, efficienza dal punto di vista energetico e delle risorse, monitoraggio ambientale, conservazione e ripristino della biodiversità e degli ecosistemi, mitigazione dei cambiamenti climatici e adattamento ad essi”.

L’IA può nel contempo, a seconda delle circostanze relative alla sua applicazione, al suo utilizzo e al suo livello di sviluppo tecnologico specifici, comportare rischi e pregiudicare gli interessi pubblici e i diritti fondamentali tutelati dalla legislazione dell’Unione. Tale pregiudizio può essere sia materiale sia immateriale, compreso il pregiudizio fisico, psicologico, sociale o economico. Le definizioni normative sono vincolanti per l’interprete, ma è possibile che esse possano mutare via via che l’IA prende nuovi campi ed evolve con nuove tecniche.

Rispetto ai principi del G7, mi pare che i principi siano tutti siano rispettati. Il modello europeo deve essere però considerato nella sua interezza, comprensiva anche del Gdpr. Non dobbiamo dimenticare che proprio le differenze di disciplina dei dati personali in Europea e negli Usa hanno costituito la causa principale del fallimento del Trattato transatlantico sul commercio e gli investimenti ( Ttip).

L’ORGANIZZAZIONE DEGLI STUDI PROFESSIONALI

Questo aspetto è interessante anche se l’organizzazione è mutevole da Paese a Paese, là dove prevalgono i solo lawyers o gli studi organizzati in forma di impresa con centinaia, talvolta migliaia di avvocati che sono semi- dipendenti o consulenti di un solo cliente, la loro firm. Ed è chiaro che i sistemi di intelligenza artificiale saranno più sviluppati là dove la complessità delle questioni o il giro d’affari ne richiedano l’uso.

Ora si moltiplicano i libri che spiegano come gli avvocati potrebbero avvalersi dei sistemi di IA per la migliore organizzazione. Non mi riferisco agli strumenti diventati ormai usuali, che ci hanno semplificato le ricerche e ci hanno donato tante informazioni, come le banche di dati, le raccolte di giurisprudenza, le relazioni delle Corti – in particolare gli studi delle Corti superiori – ed ora, quando sarà resa disponibile, la banca dati delle Corti di merito dinanzi alle quali spesso si decidono casi nuovi e singolari, che non giungono alla Cassazione. Mi riferisco piuttosto ai modelli contrattuali, ai cosiddetti templates, che creano problemi interpretativi, perché, se tradotti, implicano il trapianto di istituti stranieri nel nostro ordinamento, creando i “contratti alieni”, e, se non tradotti, implicano la conoscenza delle diverse interpretazioni ad essi date da dottrina e giurisprudenza straniere, e quindi richiedono competenze di diritto comparato che sono impegnative. Anche le investigazioni, le indagini – parlo sempre di questioni di diritto civile – possono essere agevolate dall’uso di questi sistemi, pur occorrendo sempre un tecnico, e la capacità dell’avvocato di interpretare correttamente i risultati della consulenza. Non mi figuro atti processuali scritti con l’ausilio di ChatGPT, perché una cosa è certa: l’intelligenza artificiale ci dà milioni di dati, ma ben difficilmente riesce a trovare due casi identici da cui si possano trarre soluzioni da applicare meccanicamente alla fattispecie che si sta studiando. Di più: questo sistema si basa sul passato, su fatti accaduti nel passato, mentre i casi che dobbiamo risolvere sono accaduti nel presente, in un ambiente che può essere cambiato, e in un contesto culturale che può essere evoluto.

DIFESA DEI DIRITTI E GIUSTIZIA

È possibile concludere questa analisi con una parola di speranza, attese le difficoltà di costruire una veste giuridica adeguata ad una scienza in continua evoluzione e agli occhi dei più ancora imperscrutabile? Proprio la scorsa settimana i problemi dell’intelligenza artificiale sono stati discussi in una assise dell’Accademia dei Lincei, l’Accademia culturale più antica del mondo. Qui la tematica è stata esaminata in un’ottica che riflette i principi condivisi dai Paesi occidentali: cercando di presagire come si configurerà la “scienza per il futuro”: innanzitutto si sono coniugate le scienze esatte con le scienze sociali ed umane, secondo l’insegnamento che il progresso scientifico deve giovare all’uomo e quindi farsi carico anche delle condizioni sociali e ambientali in cui vive; si sono considerate le sfide, le responsabilità e le opportunità che offrono all’intera umanità, nella convinzione che per affrontare la nuova scienza occorra la cooperazione di tutti, istituzioni, imprese e cittadini, per garantire un impiego solido, trasparente ed equo dell’intelligenza artificiale. Credo che anche gli avvocati, come hanno dimostrato in questa giornata di studio, possano sottoscrivere questa dichiarazione e dare un importante contributo con il loro impegno e la loro professionalità a perseguire i risultati sperati.