Il tema dell’Intelligenza artificiale ha caratterizzato l’ultimo congresso nazionale forense svoltosi a Torino la scorsa settimana. Gli avvocati dovranno confrontarsi sempre di più con l’Ia, senza però snaturarsi. Non a caso il titolo del congresso torinese è stato “Pensare da legale, agire in digitale”. Per farsi trovare sempre pronti l’Ordine degli avvocati di Torino ha predisposto un documento (il “BrevIArio”) con una serie di informazioni, a partire dal quadro normativo di riferimento.

Tutto partendo da una premessa molto chiara: nel settore legale e nell’ambito della giustizia lo stato dell’arte delle nuove tecnologie che stanno entrando negli studi legali impone un approccio di grande prudenza e di piena consapevolezza dei limiti e dei rischi. «In questo contesto – dice la presidente del Coa di Torino, Simona Grabbi -, il diritto è destinato a giocare un ruolo fondamentale non solo sul piano della normazione tecnica, ma, a monte, sulla tutela e la salvaguardia di taluni diritti fondamentali, divenuti tra i più rilevanti protagonisti del dibattito che ha accompagnato il lungo percorso consultivo-legislativo preliminare all’adozione dell’AI Act e della Legge 23 settembre 2025 n. 132 recante disposizioni e deleghe al Governo in materia di Ia».

Nel breviario predisposto dall’avvocatura torinese vengono individuati alcuni profili critici connessi all’utilizzo dell’algoritmo. Per esempio, fare affidamento sui risultati dell’Ia, senza una costante valutazione critica e una necessaria convalida umana, può condurre ad errori gravi. E ancora: gli algoritmi di Ia sono “black box”, scatole nere da cui è difficile capire come e perché si siano generati determinati risultati o suggerimenti. Questo aspetto è particolarmente evidente e rilevante nel caso della cosiddetta Ia generativa. In ambito giudiziario la mancanza di trasparenza può ledere il contraddittorio e può esser fonte di iniquità e ingiustizie. Non vanno infine trascurati i fattori della insufficiente sicurezza, della privacy e della segretezza con conseguenti rischi di lesione di molteplici diritti fondamentali. Di particolare interesse pure il profilo della trasparenza, poiché i clienti potrebbero non essere completamente consapevoli del ruolo che l’Ia può svolgere nel loro caso.

A tal proposito il Consiglio nazionale forense pochi giorni fa ha inviato a tutti gli Ordini una comunicazione sull’utilizzo degli strumenti di Intelligenza artificiale e nello specifico sull’obbligo per i professionisti di rilasciare al cliente una informativa in merito all’uso dei sistemi di Ia.

È stato elaborato uno schema che potrà essere utilizzato dagli avvocati nella interlocuzione con il cliente e con la parte assistita. Nell’agire in digitale la presidente degli avvocati torinesi sottolinea l’esigenza di monitorare con attenzione la materia dell’Ia con tutti i suoi risvolti.

«L’Intelligenza artificiale – commenta Grabbi -, locuzione suggestiva e da molti studiosi criticata che designa una eterogenea famiglia di tecnologie basate su complesse reti di calcolo e l’elaborazione di grandi moli di dati, riguarda ormai ogni ambito della vita quotidiana, finendo per incidere in certi contesti e quantomeno potenzialmente sui meccanismi stessi di comprensione della realtà.

Appare ormai necessario, quindi, che ogni professionista sia consapevole e si interroghi opportunamente sulle conseguenze dell’introduzione dell’Ia nella sua attività professionale quotidiana, nel tentativo di tracciare un sentiero virtuoso funzionale ad un uso responsabile e informato». Una parte del breviario è dedicata alle misure organizzative in grado di definire e di adottare una policy adeguata per il corretto utilizzo e per l’analisi preventiva dei sistemi di Ia utilizzati, tenendo conto del profilo organizzativo della gestione di sicurezza dati, senza accantonare l’aspetto formativo ed informativo. Tra le misure consigliate rientrano l’aggiornamento delle prassi lavorative dello studio in linea con l’evoluzione delle norme sull’uso dell’Ia. Inoltre è opportuno prevedere una regolare formazione di tutti i componenti dello studio legale sul trattamento dei dati personali nell’uso di strumenti di Intelligenza artificiale.

«L’Ia – dice la presidente del Coa di Torino - deve essere sotto il controllo umano, sviluppata in modo equo scongiurando il rischio di disuguaglianze e discriminazioni. È indispensabile, pertanto, che sia utilizzata per finalità costruttive e per supportare le capacità umane, non per sostituirle, favorire l’abuso e la violazione dei diritti e il dominio di pochi su molti. Del pari, è necessario comprendere che non tutto quello che è tecnicamente fattibile è e deve essere considerato accettabile da un punto di vista deontologico e giuridico». L’evoluzione tecnologica è inarrestabile, ma il “pensare da legale” continua ad essere un punto di riferimento. «Nella proliferazione continua di automatismi digitali – conclude Simona Grabbi - la centralità dell’uomo, come è stato recentemente ribadito dalla normativa nazionale appena introdotta, non può e non deve essere messa in discussione, in particolare in ambiti quale l’amministrazione della giustizia, ed è compito di ciascun professionista che si trovi a lavorare con sistemi di Ia essere conscio delle questioni tecniche e deontologiche che intorno agli stessi gravitano. Ciò al fine di assicurare per sé, per i propri collaboratori e soprattutto per i propri assistiti, un utilizzo compatibile con i principi della professione e, al contempo, scongiurare l’insorgere di “nuove” ipotesi di responsabilità che un uso scorretto dell’Ia potrebbe comportare» .