PHOTO
ORESTE POLLICINO DOCENTE
L’Italia ha una legge sull’Intelligenza artificiale. Il traguardo è stato tagliato due giorni fa con l’approvazione al Senato ( 77 voti a favore, 55 contrari e 2 astenuti) del Ddl recante disposizioni e delega al Governo in materia di Intelligenza artificiale, collegato alla manovra di finanza pubblica. Il Disegno di legge, varato dal Consiglio dei ministri nell’aprile 2024, era stato già approvato con modifiche dalla Camera. Il testo contiene 28 articoli e detta i «princìpi in materia di ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e di modelli» di IA. Inoltre, «promuove un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica, dell’Intelligenza artificiale, volto a coglierne le opportunità» e «garantisce la vigilanza sui rischi economici e sociali e sull’impatto sui diritti fondamentali».
Il percorso parlamentare non termina con l’approvazione di Palazzo Madama. Anzi, come dice al Dubbio il professor Oreste Pollicino ( ordinario di Diritto costituzionale e regolamentazione dell’Intelligenza artificiale nell’Università Bocconi e presidente del Centro Digital constitutionalism and Policy di Bruxelles), ora emergono «tre priorità». «La prima – evidenzia Pollicino - è garantire che i decreti di attuazione non si perdano in ritardi e resistenze burocratiche. La seconda è rafforzare le competenze di chi dovrà applicare la legge, nelle istituzioni e nelle imprese. La terza è fissare criteri comuni per misurare affidabilità, robustezza e impatto sui diritti, soprattutto negli agenti. Se si riesce a trasformare la norma in prassi condivisa, l’Italia potrà dimostrare che il costituzionalismo digitale non è solo un’etichetta accademica, ma un modo concreto di rendere compatibile l’innovazione con la legittimazione democratica».
L’Italia è il primo Paese in Europa a legiferare dopo l’AI Act, con uno sguardo rivolto alle sfide del presente e del futuro, ma non bisogna cullarsi troppo e accantonare quanto di buono è stato fatto. «È una scelta – commenta Oreste Pollicino - che ha un forte valore simbolico e pratico. L’Italia diventa il primo Paese a dare forma interna a principi che a livello europeo erano ancora cornice generale. Questo evita zone grigie e offre a imprese, pubbliche amministrazioni e cittadini la possibilità di sapere subito quali sono le regole. I riferimenti alla centralità della persona, alla trasparenza e alla sicurezza sono coerenti con la tradizione costituzionale italiana ed europea.
L’aver distribuito le competenze tra più autorità, dall’Agenzia per la cybersicurezza nazionale, AGID, alle autorità di vigilanza settoriali, riduce il rischio di vuoti o conflitti. Ora resta il nodo decisivo: l’attuazione. Senza decreti rapidi e strumenti di accompagnamento, il rischio è che la legge resti solo un manifesto».
La nuova legge tiene conto anche delle implicazioni che l’IA avrà sulla giustizia, sia in ambito civile che penale. «È questa – afferma il costituzionalista della Bocconi - una delle parti più interessanti. La giustizia è terreno delicato, perché qui si misura la legittimità dell’ordinamento. Nel penale, l’attenzione ai deepfake e alle prove digitali intercettate o manipolate è essenziale: basta un falso video per incidere sulla libertà di una persona. Nel civile, il rischio è che strumenti opachi sostituiscano la motivazione delle decisioni. La legge stabilisce che l’automazione può essere di supporto, ma non deve mai sostituire il giudice. È un segnale chiaro: la tecnologia entra nei tribunali, ma lo fa accompagnata da garanzie di trasparenza e di comprensibilità» .
L’Intelligenza artificiale che scrive testi, produce immagini e simula conversazioni è già superata, considerata l’operatività dei cosiddetti “agenti”? «L’IA - spiega Pollicino - non è superata, ma rappresenta solo il primo passo. Oggi il dibattito si concentra sugli “agenti” cioè sistemi capaci non solo di generare contenuti ma di organizzare sequenze di azioni, interagire con strumenti esterni e portare a termine compiti complessi. È un salto concettuale: dal semplice “rispondere” al “fare”. Pensiamo a un agente che gestisce un procedimento amministrativo dall’inizio alla fine, oppure che coordina un’intera filiera produttiva, o ancora che in ambito sanitario prenota esami, incrocia dati clinici e segnala anomalie. È la trasformazione dell’IA da strumento creativo a soggetto operativo».
Gli “agenti” presentano non poche insidie. «Pensiamo – evidenzia Pollicino – prima di tutto alla difficoltà di ricostruire il percorso decisionale. Un agente che combina vari strumenti rischia di generare una catena di azioni opaca. Un’altra difficoltà riguarda la rilevanza giuridica degli atti: se un agente trasferisce fondi o invia una comunicazione ufficiale, l’errore non è più solo tecnico. Altro aspetto è quello della sicurezza: un agente che dialoga con più sistemi diventa una superficie d’attacco estesa. Aggiungerei poi un rischio meno evidente: l’abitudine a delegare troppo. Se ci si fida ciecamente degli “agenti”, si rischia di ridurre la vigilanza umana, che resta imprescindibile».
Con l’utilizzo sempre più massiccio del’IA saranno inevitabili le ripercussioni sul diritto e il legislatore deve essere sempre vigile. Di qui anche un “Costituzionalismo digitale” ( è il titolo dell’ultimo libro di Pollicino, edito da “Il Mulino”). «Il costituzionalismo digitale – riflette Oreste Pollicino - è il metodo con cui affrontare una serie di sfide. Non si tratta di creare nuovi cataloghi di diritti, ma di usare principi antichi, dignità, uguaglianza, proporzionalità, come bussola per orientarsi in scenari nuovi. L’AI Act rappresenta una grammatica europea comune, basata sul rischio. La legge italiana aggiunge concretezza nei settori sensibili: giustizia, lavoro, sanità, minori. Il punto non è avere più regole, ma regole capaci di adattarsi e di essere verificate nella pratica. Per questo occorre formazione diffusa, valutazioni di impatto sui diritti che non restino rituali, e cooperazione tra autorità. In questa prospettiva, l’Italia può diventare un laboratorio europeo».