PHOTO
Il Meta Oversight Board è una struttura costituita da Mark Zuckerberg ed è considerata una sorta di Corte Suprema del web, che valuta l'impatto di immagini potenzialmente dannose per gli utenti delle piattaforme di social media come Facebook e Youtube. In pratica l'intelligenza artificiale analizza i contenuti e se rispondono a determinati parametri li cancella immediatamente.
Solo che in molti casi si tratta di immagini che potrebbero testimoniare crimini di guerra e che vengono caricate non solo da giornalisti ma anche da parenti delle vittime che vorrebbero ottenere giustizia. E quello che emerge da un'inchiesta della britannica BBC che ha verificato come le prove di violazioni vengono eliminate quasi all'istante dagli zelanti algoritmi. Due sono gli ordini del problema.
Alle piattaforme di social media viene richiesto dalle autorità di preservare i milioni di fruitori da visioni cruente ma l'AI non ha la capacità di discernere i dettagli di ciò che invece potrebbe aiutare a scoprire inconfessabili verità. Manca dunque l'elemento umano aprendo uno scenario evidentemente contraddittorio.
Si deve considerare poi che molto spesso video o immagini vengono caricate sui social perché in situazioni di guerra vanno perdute facilmente le prove e le piattaforme sono l'unica risorsa. Cancellare dunque equivale a non poter archiviare con evidenti danni per le inchieste sulle violazioni dei diritti umani commesse dall’esercito di Mosca in Ucraina.
Qualche voce dissonante comincia comunque a sollevarsi anche all'interno delle grandi corporation big tech. Secondo Alan Rusbridger, del consiglio di supervisione di Meta, l'industria è stata troppo cauta nella sua moderazione dei contenuti. Ciò confermerebbe che anche le esenzioni per il materiale grafico d'interesse pubblico sono ignorate, e viene lasciato ampio margine all'intelligenza artificiale su larga scala. Esistono casi concreti come quello riportato dal giornalista Ihor Zakharenko che ha lavorato in Ucraina e ha documentato attacchi contro i civili in un sobborgo di Kiev un anno fa. Nelle sue immagini si vedono almeno 17 copri e auto bruciate. La narrazione russa dichiarò i video falsi. Tutto cancellato da You Tube e anche un appello per ripristinare i filmati è stato respinto.
Il grande problema di fronte al quale si trovano Meta, Instagram o qualunque altra piattaforma è come addestrare l'AI a capire l'importanza di certe immagini. Ora però gruppi per la difesa dei diritti umani, ricercatori, cittadini, giornalisti e altri che documentano violazioni stanno mettendo in piedi strategie per proteggere i contenuti sensibili. L'organizzazione Mnemonic, basata a Berlino, sta lavorando per archiviare i filmati prima che scompaiano. Ha sviluppato uno strumento per scaricare e salvare automaticamente le prove, prima in Siria e ora in Yemen, Sudan e Ucraina. In questa maniera sono state salvate più di 700 mila immagini da zone di guerra prima che fossero rimosse dai social media. Ma organizzazioni come Mnemonic non possono coprire ogni area di conflitto in tutto il mondo. Urge dunque creare un sistema formale per raccogliere e archiviare in modo sicuro i contenuti cancellati.
Ciò includerebbe la conservazione dei metadati per aiutare a verificare e dimostrare che le immagini non sono state manomesse. Qualcosa che al momento appare possibile solo attraverso accordi con le piattaforme di social media. Una necessità che però non sembra essere così sentita dalle grandi aziende tecnologiche le quali hanno l'esigenza di continuare a sviluppare le potenzialità future dell'Intelligenza Artificiale e si nascondono, come ha fatto pubblicamente Meta, dietro la pur corretta richiesta legale «da parte delle forze dell'ordine di tutto il mondo» anche se ha assicurato di «continuare a esplorare ulteriori strade per supportare i processi di responsabilità internazionale... coerentemente con i nostri obblighi legali e di privacy». E che la battaglia sarà lunga lo dimostra la posizione assunta da YouTube che ha chiaramente fatto sapere di non considerare il proprio social un archivio.