L’intelligenza artificiale, dal 2018, è già realtà in Italia e viene impiegata soprattutto per i migranti. La polizia italiana utilizza un sistema di riconoscimento facciale chiamato SARI (Sistema Automatico di Riconoscimento Immagini) per identificare, durante le indagini, un soggetto ignoto confrontando la foto del suo volto con quelle collezionate nella banca dati Afis (acronimo di Automated Fingerprint Identification System). La composizione di questo database, la mancanza di informazioni e analisi sull’accuratezza degli algoritmi utilizzati e l’assenza di risposte da parte delle forze dell’ordine
sollevano necessarie preoccupazioni sui rischi che il sistema SARI può introdurre quando utilizzato su
migranti e persone straniere presenti in Italia. Ciò apre un tema preoccupante per tutti ma che certamente assume caratteristiche ancor più pericolose quando interessa gruppi o individui particolarmente vulnerabili come migranti, rifugiati e richiedenti asilo.
Le procedure di identificazione facciale rischiano di essere un’arma a doppio taglio
A documentare le insidie di questo utilizzo tecnologico è il report realizzato da Hermes Center for Transparency and Digital Human Rights dal titolo “Tecnologie per il controllo delle frontiere in Italia”. Secondo questa ricerca, ciò comporta un grande rischio per queste persone poiché
le procedure di identificazione al loro arrivo in Italia, effettuate all’interno degli hotspot, rischiano di essere un’arma a doppio taglio per la loro permanenza nel nostro Paese (o in Europa), determinando uno stato di sorveglianza continuativa a causa della loro condizione. Da questa ricerca emerge che le procedure di identificazione e categorizzazione dei migranti, rifugiati o richiedenti asilo fanno ampio utilizzo di dati biometrici -
la polizia italiana raccoglie sia le impronte digitali che la foto del loro volto - ma non è sempre facile comprendere in che modo vengano applicate. Nel momento in cui viene effettuata l’identificazione – evidenza il report di Hermes Center for Transparency and Digital Human Rights -, i migranti hanno ben poche possibilità di conoscere appieno il percorso che faranno i loro dati personali e biometrici, nonché di opporsi al peso che poi questo flusso di informazioni avrà sulla loro condizione in Italia e in tutta l’Unione Europea.
La Ue promuove da anni la necessità di favorire l’identificazione dei migranti, con un massiccio utilizzo di tecnologie
Quest’ultima, infatti, promuove da alcuni anni la necessità di favorire l’identificazione dei migranti, stranieri e richiedenti asilo attraverso un massiccio utilizzo di tecnologie: a partire dal mare, pattugliato con navi e velivoli a pilotaggio remoto che
“scannerizzano” i migranti in arrivo; fino all’approdo sulla terraferma, dove oltre all’imposizione dell’identificazione e del fotosegnalamento i migranti hanno rischiato di vedersi puntata addosso una videocamera “intelligente”.
Manca la trasparenza degli algoritmi del riconoscimento facciale
Ampio spazio è lasciato alla trattazione di
come lo Stato italiano utilizzi la tecnologia del riconoscimento facciale già da alcuni anni, senza che organizzazioni indipendenti o professionisti possano controllare il suo operato. Oltre alla mancata trasparenza degli algoritmi che lo fanno funzionare, infatti, non sono disponibili informazioni chiare sul numero di persone effettivamente comprese all’interno del database che viene utilizzato proprio per realizzare le corrispondenze tra volti, Afis.
I dubbi del Centro Hermes per la Trasparenza e i Diritti Umani Digitali sulla neutralità della tecnologia
Il Centro Hermes per la Trasparenza e i Diritti Umani Digitali, dal 2011 di interroga sul funzionamento e sullo scopo delle innovazioni in campo tecnologico, analizzandole non solo da un punto di vista tecnico ma anche attraverso
la lente dei diritti umani digitali. Negli ultimi anni la datificazione della società attraverso la raccolta indiscriminata di dati personali e l’estrazione di informazioni (e di valore) relative al comportamento e alle attività svolte da ognuno di noi sono il tema centrale di ricerca, analisi e advocacy dell’associazione. L’associazione è convinta, infatti, che vada messa in dubbio non solo la tecnologia digitale creata al presunto scopo di favorire il progresso o di dare una risposta oggettiva a fenomeni sociali complessi, ma anche il concetto di tecnologia come neutra e con pressoché simili ripercussioni su tutti gli individui della società.