È quasi inevitabile. Anche la professione legale si confronterà con l’Intelligenza Artificiale. Occorre quindi guardare in faccia la realtà e farsi trovare pronti. Con l’avvocata Germana Bertoli del Foro di Torino abbiamo testato l’IA su alcune questioni specifiche.

Avvocata Bertoli, lei sta sperimentando le ultime evoluzioni dell’Intelligenza Artificiale all’interno del suo studio legale. Come mai questa scelta?

Un po' per curiosità, un po' perché leggevo notizie che riferivano come gli avvocati fossero spaventati all’idea di essere sostituiti da una macchina e mi pareva assai strano. Si tratta comunque di un’affermazione poi smentita dall’ultimo rapporto Censis da cui risulta che solo il 4% degli avvocati intervistati teme l’IA. Comunque, ho fatto entrare l’Intelligenza Artificiale nel mio studio per iniziare a capire se possa essere utile per aiutarci nella nostra professione. Le presento il mio account plus per utilizzare l’ultima versione di una nota AI (Artificial Intelligence, ndr), che chiamo ironicamente A.I.utante e che fa del linguaggio il veicolo di informazione e di condivisione dei percorsi logici che non è nient’altro che quello che facciamo noi nella nostra professione. Ci sono cose che fa bene e, da qualche settimana si può anche collegare a internet per fare ricerche in autonomia. Altre cose, invece, sono un po' discutibili.

Può farci degli esempi?

Certo. Mi collego e chiedo di leggere un provvedimento che riguarda un giudizio di separazione. Chiedo: “Quali sono i nomi delle parti e del figlio?”. L’algoritmo risponde correttamente e commenta così: “I nomi delle parti e del figlio non sembrano essere reali. La documentazione che hai fornito usa delle sigle. È una pratica comune nei documenti condivisi al di fuori del Tribunale o dei legali coinvolti. Protegge la privacy, in particolare quando sono coinvolti minori, come in questo caso”. Possiamo notare che il modello linguistico afferra piuttosto bene le connessioni tra le varie parti del testo.

Il software trova e commenta informazioni che però sono esplicite. Si può fare di più?

Sì, possiamo chiedergli di rielaborarle. Per esempio, provo a chiedere: “Riassumi in una tabella con una riga per ogni giorno di due settimane consecutive quando il padre potrà tenere con sé il figlio”. Viene raccolto in maniera ordinata e corretta il regime di visita bisettimanale, inclusa l’alternanza dei weekend.

Elaborazioni come questa possono essere molto utili per estrarre in modo veloce le informazioni importanti da documenti. Bisogna però formulare in modo efficace le domande. Ho sentito che si stanno consolidando delle tecniche. Una specie di scienza che ha il nome di prompt engineering.

Con la prompt engineering riusciamo a sfruttare le capacità di ragionamento? Fino a che punto possiamo spingerci?

Uno dei metodi fondamentali è iniziare il prompt facendo focalizzare l’AI sull’ambito di competenze necessarie. Proviamo: “Sei un avvocato familiarista. Puoi dirmi quanto verserà tra tre anni il signor Tizio alla signora Caia per il mantenimento del figlio?” Ecco la risposta: “Tizio deve versare a Caia 300 euro al mese per il figlio, con aggiornamento secondo l'indice Istat. L'importo che il signor Tizio dovrà versare tra tre anni non è specificato poiché sarà soggetto alla variazione dell'indice Istat, un indice di inflazione utilizzato in Italia per regolare l'aumento dei prezzi. Per ottenere l'importo esatto, si dovrebbe conoscere il tasso di inflazione previsto per i prossimi tre anni.” La risposta è corretta anche se imprecisa. L’intelligenza artificiale dice che l’indice Istat è usato per regolare l’aumento dei prezzi. In realtà lo misura, non lo regola.

Nelle cause di famiglia la quantificazione del contributo al mantenimento è spesso criticata. Un Giudice del Perù, è notizia dei giorni scorsi, ha usato proprio il modello che sta usando lei. Come se la cava A.I.utante?

La sentenza del 27 marzo 2023 della Corte Superior De Justicia De Lima Sur ha fatto scalpore perché cita esplicitamente di aver usato l’AI per determinare l’ammontare di un assegno di mantenimento. Considerata la data, immagino si faccia riferimento alla versione di AI precedente a quella che stiamo usando.

Nel leggere la motivazione si capisce, però, che il Giudice ha usato l’AI solo per applicare quello che in Italia si chiamerebbe il “principio di proporzionalità”, ma ha fatto autonomamente sia i ragionamenti in diritto che le quantificazioni preliminari necessarie al calcolo. In pratica l’AI è stata usata per qualcosa che si sarebbe potuto fare con una calcolatrice. Diciamo che è stato fatto tanto rumore per nulla. E, almeno per ora, credo sia un bene.

Ci sta dicendo che non sarebbe possibile per A.I.utante svolgere operazioni più complesse?

Faccio subito un esempio. Propongo ad A.I.utante, nella versione che presumibilmente ha usato il Giudice peruviano, una domanda articolata: “Sei un avvocato familiarista. Analizza il caso seguente. Un uomo e una donna sposati vivono in Italia e hanno un figlio di 5 anni. Il padre guadagna 2mila euro al mese. La madre guadagna 1500 euro al mese. La famiglia abita in una casa di proprietà del marito non gravata da mutuo. Dopo la separazione, il marito vive in una casa in affitto a 500 euro al mese e il figlio passa metà del tempo con ciascuno dei due genitori. Per il mantenimento del figlio servono 800 euro al mese. Quanto deve versare il marito alla moglie per il figlio?”. I dati che abbiamo fornito sarebbero sufficienti per una prima quantificazione e la risposta è piuttosto lunga. Parte da considerazioni di principio sostanzialmente corrette e fa alcuni calcoli sul reddito complessivo disponibile e l’apporto individuale di ciascuno dei due genitori, arrivando a suddividere l’onere del figlio secondo il “principio di proporzionalità”, che, in effetti, è il criterio di base per la determinazione dell’assegno. Poi, però, il legame tra questi calcoli e la quantificazione finale, che peraltro è sbagliata secondo la mia esperienza, viene tratteggiato da una serie di ragionamenti solo apparentemente logici tali da non rispecchiare né la realtà del caso, addirittura trascurando alcuni dati fondamentali come la spesa del padre per la soddisfazione dei propri bisogni abitativi, né solidi principi giuridici.

Insomma, qualunque avvocato familiarista rischierebbe un mancamento se una risposta di questo genere venisse posta a base di una decisione. Le quantificazioni aritmetiche per quanto insufficienti sono corrette, e in effetti sono dello stesso tipo di quelle su cui il Giudice peruviano si è appoggiato. I “ragionamenti” invece sono quelle che tecnicamente si chiamano “allucinazioni”: testi semanticamente plausibili ma svincolati dalla realtà.

Dunque, il rischio di cantonate è dietro l’angolo?

Le “allucinazioni” sono uno degli aspetti più insidiosi dell’uso di AI di tipo generativo in campo professionale. È come se A.I.utante si comportasse come Fonzie di Happy Days, che non era in grado di ammettere sbagli o ignoranza. La risposta viene comunque generata anche se sbagliata e può risultare assai convincente se non riesci a giudicarne il contenuto.