Il 20 agosto il Sole-24 Ore ha pubblicato due articoli in merito all’attuale impatto dell’Intelligenza Artificiale nel nostro vivere attuale. Il primo, di Padre Paolo Benanti, è un grido, una esortazione a non voler distogliere lo sguardo dal rapporto tra efficienza, produttività e dignità del lavoro, e ciò al fine di orientare lo sviluppo dell’AI a principi etici. L’appello ci induce a valutare la conformità dell’uso dei sistemi di AI ai principi costituzionali, secondo i quali l’iniziativa privata non può svolgersi in contrasto con l’utilità sociale e non deve recare danno alla dignità della persona, in un il dibattito condotto sul terreno dell’etica normativa più che della mera innovazione tecnologica: da «cosa può fare l’AI» a «cosa dovrebbe fare l’AI».
Il secondo articolo, illustra l’evoluzione dei sistemi di AI nel mondo forense, con i nuovi scenari dati da una possibile sostituzione del professionista con un sistema intelligente in grado di svolgere le attività tipiche dell’avvocato.

«I’m sorry Dave. I’m afraid I can’t do that»: le inquietanti frasi del colloquio tra Dave e Hal 9000, di un profetico Kubrik in 2001: Odissea nello Spazio, giacevano in un remoto angolo della nostra memoria; ora, dopo oltre cinquant’anni, riaffiorano nella lettura dell’articolo pubblicato il 20 agosto sul Sole-24 Ore a firma dei professori Giovanni De Gregorio, Giulia Gentile e Oreste Pollicino, nel quale si annuncia la dirompente transizione da una Intelligenza Artificiale, AI esecutrice, con compiti puntuali e definita nei limiti dati dall’operatore, ad una AI protagonista, quale soggetto capace di decisioni autonome con ininterrotta interazione con persone, dati e sistemi.

È l’alba di un nuovo soggetto nel mondo del diritto, una AI non più confinata alla ricerca di precedenti o nella redazione di bozze di atti, ma pronta a svolgere l’attività propria della professione forense, nell’analisi di fattispecie complesse per elaborare tesi e strategie, e ciò senza essere un automa o un alter ego dell’avvocato, ma per sostituirlo, consentendogli di dedicarsi ad altri e più alti compiti.

L’avvocato, in questo futuro ormai presente, sarà solo “l’architetto” con la funzione di indirizzo e di validazione dell’attività svolta dall’ AI, e dovrà essere “l’allenatore”, il tutor, per meglio istruire la pratica forense del nuovo soggetto. Quest’ultimo stadio di evoluzione dei sistemi di intelligenza artificiale è definito con il termine di ‘AI Agentica’, ben rappresentativo delle sue capacità o, meglio, del suo essere.

Una AI con la capacità di agire in modo indipendente, di adattarsi e prendere decisioni orientate agli obiettivi, di eseguire compiti in modo efficiente senza l’intervento umano, e quindi “agentica” in quanto operante in modo intenzionale con il controllo delle proprie azioni e del proprio ambiente; definizione questa che si avvicina, sino quasi a confondersi, ad altro concetto, quello di libero arbitrio.

Senza volersi addentrare in speculazioni filosofiche, non di nostra capacità, ci si chiede come potrà esser utilizzata la AI agentica entro i confini dei princìpi che regolano e sono propri dell’attività forense, nella tutela dei diritti, nella interpretazione evolutiva delle norme, nella possibilità di includervi fattispecie non espressamente previste e di rinvenire e ipotizzare nuove frontiere del diritto vivente. E ciò anche in quanto l’AI agentica attingerà solo all’esistente, ai dati di conoscenza generali tratti dai più remoti angoli di data center sempre più colossali, rielaborando concetti giuridici, precedenti giurisprudenziali per offrirne ulteriore interpretazione.

In questo quadro, osserviamo che mai la sua elaborazione potrà aggiungere nuova conoscenza a quella esistente, nello schema di ragionamento sintattico che segue regole quantitative, che non è quello dell’interprete umano, che ragiona secondo diverse regole, per trovare nuovi percorsi, nuove soluzioni, affidandosi, spesso, all’intelligenza intuitiva e alla fantasia, ove il dato esperienziale è valutato senza passare attraverso sistemi rigorosamente logici.

E in tale sua limitatezza, nel suo sguardo rivolto solo al passato nel mondo parallelo della realtà virtuale, si può celare l’inganno del sistema quantitativo, in quanto in difetto di un effettivo controllo dei dati e del luogo ove sono contenuti, e nulla può impedire l’intenzionale massiva introduzione, nei sistemi attinti dalla AI, di dati esperienziali orientati, per condurre l’output, le soluzioni, verso decisioni indotte dai programmatori o da coloro che li controllano.

Assistiamo, ora, con crescente stupore e timore alla rapida evoluzione dei sistemi di AI, spesso inconsapevoli del loro costo implicito in termini di impronta energetica, idrica e ecologica ma soprattutto della insinuante trasformazione della nostra condizione umanistica nell’universo naturale.

Il nostro mondo non è più informato a quei princìpi che hanno consentito l’evoluzione del pensiero occidentale dalla Grecia del V secolo ad oggi, nella tutela dell’essere umano e del luogo in cui vive, del rispetto della sua dignità ed uguaglianza, sostituiti ora dalle convenzioni, convenzioni finalizzate al soddisfacimento dell’interesse immediato di soggetti ripiegati nella contemplazione del presente, incapaci della valutazione delle conseguenze delle proprie azioni, il tutto senza alcuna cognizione dell’esistenza di un limite, del limite; le attuali gravi crisi internazionali ne sono tragico esempio.

Nel nostro abbandono, nel volerci non più affidare alla nostra imperfetta ragione, dobbiamo attenderci di sentirci dire: «I’m sorry... I’m afraid I can’t do that. …This mission is too important for me...».