Entro il 2021 l’Unione europea emanerà una legge che regolamenta l’intelligenza artificiale (IA), ma sarà un compito delicato perché bisognerà evitare che intacchi i diritti umani come, di fatto, sta accadendo in Cina. Ad esempio, come mettono in guardia numerose associazioni che si occupano dei diritti umani, l’uso di strumenti di valutazione del rischio nel sistema di giustizia penale e nel contesto preprocessuale, come gli algoritmi per tracciare un profilo degli individui all’interno dei processi, rappresenta una grave minaccia per i diritti fondamentali. «Tali strumenti – si legge nella lettera rivolta alla Commissione europea a firma dell’Asgi e altre 60 associazioni italiane - basano le loro valutazioni su una vasta raccolta di dati personali non collegati alla presunta cattiva condotta degli imputati. Questa raccolta di dati personali al fine di prevedere il rischio di recidiva non può essere percepita come necessaria né proporzionata allo scopo, in particolare considerando le implicazioni per il diritto al rispetto della vita privata e la presunzione di innocenza. Inoltre, prove sostanziali hanno dimostrato che l’introduzione di tali sistemi nei sistemi di giustizia penale in Europa e altrove ha portato a risultati ingiusti e discriminatori». Il Parlamento europeo, è tra le prime istituzioni a presentare delle raccomandazioni su ciò che le norme sull'Intelligenza artificiale dovrebbero includere in materia di etica, responsabilità e diritti di proprietà intellettuale. Queste raccomandazioni aiuteranno l'Ue a diventare un leader globale nello sviluppo dell'intelligenza artificiale. Non è un caso che negli anni passati, l’Ue ha stanziato diversi miliardi per la ricerca. Com’è detto, l’intelligenza artificiale deve rimanere dentro i confini di un quadro etico ben dettagliato. Anche perchè qualsiasi approccio “umanocentrico” all’intelligenza artificiale richiede il rispetto dei diritti fondamentali, indipendentemente dal fatto che questi siano o meno esplicitamente protetti dai trattati dell’Unione Europea, come il Trattato sull’Unione Europea (Tue) o la Carta dei Diritti Fondamentali dell’Unione Europea. Nel 2019, su spinta della commissione europea, si è costituto un gruppo di esperti denominato AI HLEG. E sono quest’ultimi che hanno suggerito all’Unione Europea di impegnarsi a una regolamentazione che punti verso nozioni quali «rispetto dell’uguaglianza, non discriminazione e solidarietà». L’AI HLEG ha esplicitamente raccomandato ai politici di emanare regolamenti per garantire che gli individui non siano soggetti a «tracciamento o identificazione personale, fisica o mentale ingiustificata, profiling e nudging attraverso metodi di riconoscimento biometrico basati sull’intelligenza artificiale come il tracciamento emotivo, Dna, scansione dell’iride e identificazione comportamentale». Tali metodi dovrebbero, però, «essere consentiti solo in circostanze eccezionali, ma anche in questo caso solo se “basati su prove nonché sul rispetto dei diritti fondamentali». In sostanza si chiede di non fare la fine della Cina che già usa l’Intelligenza artificiale per imporre il controllo.Di recente, l’associazione per gli studi giuridici sull’immigrazione (Asgi) e altre 60 associazioni, in vista della proposta legislativa sull’intelligenza artificiale, hanno inviato una lettera aperta alla Commissione europea chiedendo che vengano posti dei limiti chiari nell’elaborazione di una regolamentazione comunitaria nell’utilizzo delle nuove tecnologie. Elencano una serie di preoccupazioni e si sollecita la Commissione europea affinché vengano affrontate in maniera inequivocabile per evitare eventuali rischi di violazione dei diritti umani fondamentali.