PHOTO
Fino a ieri si pensava che a cadere in errore con l’uso dell’intelligenza artificiale fossero solo gli avvocati. Ma il caso del giudice Julien Xavier Neals dimostra che anche chi indossa la toga e siede dietro il banco della giustizia può inciampare — e clamorosamente — nell’uso (forse incauto) di strumenti come ChatGpt.
A riportare per primo la vicenda è stato Bloomberg Law, che ha rivelato i dettagli di una sentenza ritirata dopo che un legale ha identificato errori sostanziali e citazioni giuridiche false.
Il 23 luglio, il giudice federale del Distretto del New Jersey ha ritirato una propria opinione giudiziaria, dopo che un avvocato ha scoperto e segnalato una sconcertante serie di errori: sentenze citate in modo errato, conclusioni mai pronunciate da altri tribunali, e perfino frasi inventate attribuite agli imputati. La vicenda ha avuto inizio con una lettera formale inviata il giorno prima da Andrew Lichtman, partner del prestigioso studio Willkie Farr & Gallagher, che rappresenta la società biofarmaceutica CorMedix Inc. coinvolta in una causa intentata da azionisti. Sebbene Lichtman non chiedesse la revisione della sentenza sfavorevole, ha sentito il dovere di segnalare «errori gravi» nella decisione del giudice.
In un documento dettagliato, l’avvocato ha evidenziato come Neals avesse travisato gli esiti di tre casi federali, tra cui Dang v. Amarin Corp., che il giudice aveva citato come favorevole ai querelanti, quando in realtà il ricorso era stato respinto; attribuito citazioni inesistenti a sentenze giudiziarie, frasi come «l’assenza di insider trading non è determinante» o «le certificazioni false al governo sono dichiarazioni false a tutti gli effetti» non compaiono nei documenti citati; messo in bocca agli imputati dichiarazioni mai fatte, come l’affermazione che CorMedix avesse «risolto tutti i problemi relativi alla produzione».
A peggiorare il quadro, alcune delle frasi false attribuite ai casi citati erano poi riprese come base argomentativa nella motivazione dell’opinione, rendendo l’intero documento giuridicamente fragile. Il ritiro dell’opinione è stato registrato nel sistema del tribunale con una semplice annotazione: l’ordine era stato «inserito per errore». Nessuna spiegazione formale, nessuna ammissione, e soprattutto, nessun commento da parte del giudice o della sua cancelleria. Ma il danno era ormai fatto. L’opinione di Neals era già stata citata come precedente in un’altra causa per frode azionaria.
Dopo la scoperta degli errori, anche in quel procedimento gli avvocati hanno ritirato il riferimento. Il sospetto, mai confermato ma sempre più concreto, è che il giudice possa aver fatto uso di strumenti di intelligenza artificiale generativa come ChatGpt per redigere la propria opinione. Secondo Bloomberg Law, il caso rappresenta «un raro esempio di un giudice messo sotto accusa per errori elementari che di solito vengono imputati agli avvocati». E il contesto non è casuale: negli ultimi mesi, tribunali e studi legali americani stanno affrontando un’ondata di errori dovuti all’uso disinvolto dell’IA. Bruce Green, professore di etica legale alla Fordham Law School, ha ricordato che anche i giudici sono soggetti a obblighi di diligenza e competenza. «Le stesse regole che valgono per gli avvocati si applicano anche ai magistrati», ha detto a Bloomberg Law.
Il giudice Neals, nominato dal presidente Joe Biden, ha ora i riflettori puntati addosso. La sua credibilità (e forse la sua carriera) potrebbero risentire di un errore che, se confermato come frutto dell’uso sconsiderato dell’intelligenza artificiale, apre un nuovo e delicato capitolo sul ruolo dell’IA nelle aule dei tribunali. L’intelligenza artificiale è uno strumento straordinario, sì, ma non infallibile. E quando a usarla è soprattutto chi deve giudicare, non può mancare la vigilanza, il dubbio, il controllo umano.