Un avvocato di New York è stato chiamato a rispondere delle sue azioni in tribunale dopo aver fatto affidamento sull’intelligenza artificiale di ChatGPT per le sue ricerche legali. Ma è stato un vero disastro: durante l’udienza, il giudice ha smascherato le sentenze citate dall’avvocato come completamente false. L’avvocato ha dichiarato di essere ignaro della falsità delle informazioni generate.

La scena si svolge nel tribunale di Manhattan, a New York, dove l’avvocato Steven Schwartz si è trovato al centro di una svolta inaspettata durante un caso legale che sembrava promettente. Mentre difendeva Roberto Mata, un passeggero di un volo Avianca coinvolto in un incidente, Schwartz ha citato una serie di casi legali come precedenti a sostegno della sua argomentazione. Tuttavia, ciò che sembrava essere un solido appoggio si è rivelato un castello di carte pronto a crollare.

Schwartz si era affidato a ChatGPT, la piattaforma di intelligenza artificiale creata dalla società Open Ai, per cercare i precedenti citati. Il chatbot ha risposto con prontezza, fornendo persino i numeri esatti delle sentenze, ma il giudice Kevin Castel ha continuato a non trovare alcuna traccia di tali casi.

La sfida per scoprire la verità si è intensificata, e il giudice ha richiesto che fossero presentati i testi completi delle sentenze. È stato solo alla terza e decisiva interrogazione che ChatGPT ha finalmente confessato: quei precedenti legali erano completamente inventati. L’intelligenza artificiale ha ammesso l’errore grave e ha chiesto scusa all’avvocato Schwartz per il danno causato.

Secondo quanto riferito, l’avvocato aveva utilizzato per la prima volta l’IA generativa ChatGPT per supportare la sua ricerca legale e non era a conoscenza della possibilità che i contenuti forniti potessero essere falsi. In una dichiarazione scritta, Schwartz ha espresso profondo rammarico per l’errore commesso e si è impegnato a non utilizzare mai più l’IA senza una verifica assoluta della sua autenticità.

L’avvocato ha affermato che le risposte apparentemente coerenti fornite dal chatbot potevano facilmente trarre in inganno senza un’accurata verifica dei fatti. Sia Schwartz che l’avvocato Peter LoDuca, che non era a conoscenza dell’uso di ChatGPT durante la ricerca del caso, affronteranno l’udienza su quanto avvenuto il prossimo 8 giugno.