Mercoledì 11 Marzo 2026

×

Giustizia digitale

Sentenze inventate con l’IA, avvocato condannato dal Tribunale di Siracusa

Il giudice civile sanziona un legale del foro di Milano per avere citato quattro precedenti inesistenti prodotti con uso acritico dell’intelligenza artificiale

11 Marzo 2026, 11:45

Sentenze inventate con l’IA, avvocato condannato dal Tribunale di Siracusa

Le sentenze inventate IA entrano in un’aula di giustizia e finiscono per costare care a chi le ha utilizzate. Il Tribunale civile di Siracusa ha infatti condannato un avvocato del foro di Milano per avere depositato, a sostegno della propria tesi, quattro sentenze inesistenti presentate come precedenti giurisprudenziali. Per il giudice si è trattato di una condotta connotata da «colpa grave, se non malafede».

Il legale dovrà versare 2mila euro alla cassa ammende, in applicazione della norma che punisce la parte che agisce «con mala fede o con colpa grave». La causa riguardava le sorti di un immobile, ma il punto che ha segnato il procedimento è stato proprio l’utilizzo di precedenti che, dopo la verifica del giudice, si sono rivelati inesistenti.

Quattro precedenti inesistenti a sostegno della tesi difensiva

Secondo quanto emerso, i passaggi riportati tra virgolette nelle pronunce richiamate dall’avvocato non risultano presenti in alcuna banca dati giuridica professionale. Il controllo svolto dal giudice ha dunque escluso l’esistenza delle decisioni citate e ha fatto cadere l’impianto difensivo costruito su quei presunti precedenti.

La vicenda mostra in modo molto netto uno dei rischi più discussi nell’uso dell’intelligenza artificiale generativa nel lavoro forense: l’affidamento acritico a strumenti che producono testi plausibili sul piano linguistico, ma non necessariamente veri o verificati sul piano giuridico.

Il Tribunale: i modelli generativi non sono banche dati giuridiche

Molto duro il passaggio motivazionale con cui il giudice inquadra il comportamento del professionista. Secondo il Tribunale, è ormai un dato «notorio», acquisito alla generalità dei consociati e certamente esigibile da un operatore del diritto, che i modelli di intelligenza artificiale generativa non costituiscono banche dati giurisprudenziali.

Il giudice spiega che questi strumenti non permettono di estrarre precedenti affidabili, ma sono sistemi di generazione automatica del linguaggio fondati su meccanismi inferenziali di natura statistica e probabilistica. In altri termini, non “sanno” né “ricordano” realmente alcunché, ma producono sequenze di testo statisticamente plausibili.

La verifica delle fonti è un dovere del professionista

Il provvedimento insiste su un punto preciso: l’uso di questi strumenti non è vietato in sé, ma diventa gravemente colposo quando manca la verifica successiva attraverso le fonti ufficiali. Il giudice indica con chiarezza quali siano i riferimenti che un professionista deve consultare: banche dati giuridiche, repertori ufficiali e Ced della Corte di Cassazione.

Per il Tribunale, l’«utilizzazione acritica» dell’intelligenza artificiale senza il necessario controllo integra gli estremi della colpa grave. E aggiunge che, allo stato attuale delle conoscenze tecnologiche diffuse, errori di questo tipo non possono più essere tollerati.

La motivazione esclude che ci si trovi davanti a semplici refusi o imprecisioni. Al contrario, secondo il giudice, il deposito di precedenti inesistenti comporta un aggravio significativo dell’attività giudiziaria e difensiva.