PHOTO
IMAGOECONOMICA
Con una sentenza di forte impatto, l’Alta Corte britannica, per voce della presidente Victoria Sharp e del giudice Johnson, lancia un avvertimento senza appello alla professione forense: l’uso superficiale o scorretto dell’intelligenza artificiale nei procedimenti giudiziari mina alla base l’integrità del sistema di giustizia.
La decisione, che unisce due casi, evidenzia gravi violazioni deontologiche da parte di legali che hanno presentato argomentazioni contenenti citazioni false o completamente inventate, presumibilmente prodotte da strumenti di intelligenza artificiale generativa.
Nel primo caso, l’avvocata tirocinante Forey, ha inserito in un ricorso contro il Comune di Haringey cinque sentenze inesistenti, senza fornire chiarimenti quando sollecitata. Il giudice ha definito la condotta “impropria, irragionevole e potenzialmente negligente” e ne ha disposto la segnalazione disciplinare. Nel secondo, l’avvocato Hussain ha incluso negli atti numerose citazioni false, generate dal cliente con strumenti di intelligenza artificiale, senza verificarne l’attendibilità.
La Corte ha ribadito che strumenti come ChatGpt non sono affidabili per la ricerca giuridica, poiché generano risposte plausibili ma non accurate, spesso basate su informazioni inventate (“hallucination”). L’uso non controllato di questi strumenti, ha affermato la giudice Sharp, mina l’integrità del sistema giudiziario e viola i doveri professionali fondamentali. “La fiducia del pubblico nella giustizia – ha sottolineato – dipende dall’affidabilità di chi vi opera”.
Oltre alle responsabilità individuali, la Corte ha evidenziato gravi carenze sistemiche nella formazione e nella supervisione dei giovani legali. Forey ha dichiarato di aver svolto il tirocinio senza un’adeguata guida, circostanza che ha spinto i giudici a chiedere accertamenti anche sulle camere che ne hanno curato la formazione. Preoccupazioni simili sono emerse anche nel caso seguito da Hussain.
Sebbene la corte abbia scelto di non avviare procedimenti per oltraggio alla corte – evitando così potenziali sanzioni penali – ha ribadito che la decisione non crea un precedente: in casi futuri, sanzioni severe saranno previste per chi presenta materiale falso.
La sentenza è un appello chiaro ai vertici delle professioni legali affinché rafforzino controlli, formazione e consapevolezza sull’uso etico della tecnologia in ambito giuridico. Il giudizio dell’Alta Corte si chiude con un avvertimento: l’intelligenza artificiale non è un sostituto della responsabilità professionale. “Ogni materiale presentato in tribunale – reale o generato – ricade sotto la piena responsabilità dell’avvocato”.