Il Dubbio di oggi

Il Dubbio del lunedì

Giustizia predittiva, l’uomo non è una macchina: ha diritto all’incoerenza

Mentre l'Ue lavora al regolamento sull'intelligenza artificiale, è necessario rivendicare la nostra libertà di azione contro quei criteri di profilazione in cui potremmo essere inglobati per finalità di social scoring
Share on facebook
Share on twitter
Share on linkedin

Si avverte la crescente necessità di favorire un articolato dibattito pubblico sui contenuti della normazione concernenti l’intelligenza artificiale. Aumenta la consapevolezza che l’utilizzo di sistemi sempre più complessi di IA finirà per modificare radicalmente le nostre esistenze quotidiane.

Ciò anche in considerazione delle rilevanti perplessità derivanti dall’introduzione di sistemi di valutazione della pericolosità adottati dagli Stati Uniti per la prevenzione delle recidive o di social scoring in Cina per l’attribuzione di un punteggio ai cittadini in funzione della virtuosità del proprio comportamento. Con la prospettiva di introdurre una disciplina condivisa su larga scala, è attualmente in corso il procedimento di approvazione della proposta di regolamento della Commissione europea denominata Artificial Intelligence Act, su cui si sono registrati numerosi interventi, tra i quali anche quello del governo italiano.

Come è noto, tale proposta di regolamento rappresenta il primo tentativo compiuto di regolare in termini generali l’IA. Nel testo, particolarmente corposo (89 considerando, 85 articoli, di cui l’art.4 che consta di 44 paragrafi, 9 allegati), si coglie anche lo sforzo di fornire una specifica definizione del fenomeno, qualificato come un software che può, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono. L’impianto complessivo del testo normativo è modellato sulla regolamentazione del mercato interno, giacché i sistemi di IA sono considerati a tutti gli effetti come prodotti, da sottoporre a verifica di conformità ex ante, alla stregua dei dispositivi medici, dei macchinari o dei giocattoli, da commercializzare previa marcatura CE.

La verifica da compiere è basata sulla gestione del rischio sulla salute, sulla sicurezza e sui diritti fondamentali che l’utilizzo di questi sistemi comporta ed è articolata sulla base di quattro distinti livelli (inaccettabile, alto, basso e trascurabile). Il compimento dell’iter che porterà all’approvazione del’AI Act da parte del Parlamento e del Consiglio si concluderà nel prossimo anno, ma il confronto sui contenuti ora diventa essenziale proprio al fine di introdurre regole certe, non soltanto con la previsione di un diretto raccordo con i diritti così come esplicitati dalla Carta europea dei diritti fondamentali, ma anche favorendo l’emersione di un nuovo catalogo dei diritti collegato proprio in modo specifico all’utilizzo dei sistemi AI.

In particolare, accanto ai tradizionali diritti di trasparenza e di non discriminazione sarà necessario dare rilevanza sia a quello di conoscere in anticipo la natura del nostro interlocutore (se la macchina o l’uomo), ma anche il diritto alla discontinuità o all’incoerenza ovvero la possibilità di rivendicare la nostra libertà di azione, al di fuori dai criteri di profilazione in cui potremmo essere inglobati per finalità di social scoring.

Al riguardo, risulta chiara la proposta di regolamento nel vietare, tra l’altro, l’utilizzo di sistemi di IA che favoriscono proprio il social scoring inteso come l’assegnazione di un punteggio sull’affidabilità delle persone in base alla loro condotta sociale. Ciò è espresso unitamente al divieto di manipolazione subliminale, di sfruttamento delle vulnerabilità, di riconoscimento facciale in spazi aperti al pubblico, con alcune eccezioni legate a importanti esigenze investigative.

Tuttavia, nonostante la rilevante mole di disposizioni contenuta nella proposta di regolamento sui sistemi di IA, la giustiziabilità della violazione del predetto divieto trova, comunque, il suo fondamento in una diversa disciplina normativa ovvero nell’art.22 del GDPR, il regolamento per la protezione dei dati personali, in cui si afferma il diritto degli individui di sottrarsi a trattamenti di dati mediante procedure automatizzate, con la previsione di ipotesi eccezionali in cui sia possibile ricorrervi.

Nell’attuale fase di approvazione dell’AI Act non possiamo non interrogarci sul tema della tutela dei diritti incisi dai sistemi di intelligenza artificiale, invocando l’introduzione di salvaguardie che vadano oltre il ricorso all’art.22 del GDPR, anche bandendo qualsiasi sistema diretto ad introdurre l’attribuzione di punteggi sociali, come proposto dal Consiglio europeo degli Ordini forensi.

Nel suo libro “L’intelligence artificielle en procès”, Yannich Meneceur, uno dei massimi esperti francesi della materia, ha evidenziato come siano ben noti i limiti della descrizione dei fenomeni sociali attraverso algoritmi, rilevando spesso il verificarsi della confusione tra la causalità e la correlazione dei fenomeni oppure il cosiddetto data-dredging, l’uso improprio dell’analisi dei dati per ricavarne modelli, presentati come statisticamente significativi, ma con il drastico aumento del rischio di falsi positivi.

Solo la consapevolezza dei rischi insiti nell’utilizzo non controllato dei sistemi di IA ci consentirà di pretendere una risposta giuridica forte sia nella fase attuale in cui si sta compiendo il processo legislativo sia successivamente in sede giudiziaria con gli strumenti di cui potremo disporre per la tutela dei diritti.

Gaetano Viciconte, avvocato

Ultime News

Articoli Correlati