L’intelligenza artificiale e la tecnologia digitale non sono una questione tecnica: sono una questione di persone. Esse ci obbligano ad interrogarci sull’equilibrio che una società è pronta ad accettare fra automazione e decisione umana, fra controllo e privacy, fra efficienza e garanzia. Temi fondanti il vivere comune, la cui regolazione non può essere il risultato né del solo mercato, né della sola tecnocrazia, anche se di mercato e di esperti abbiamo bisogno. Intelligenza artificiale e tecnologia digitale La sfida per il futuro tra etica e diritto

L’intelligenza artificiale e la tecnologia digitale non sono una questione tecnica: sono una questione di persone. Esse ci obbligano ad interrogarci sull’equilibrio che una società è pronta ad accettare fra automazione e decisione umana, fra controllo e privacy, fra efficienza e garanzia. Temi fondanti il vivere comune, la cui regolazione non può essere il risultato né del solo mercato, né della sola tecnocrazia, anche se di mercato e di esperti abbiamo bisogno. Le regole vanno costruite avendo come orizzonte i diritti fondamentali, così come sono definiti ed approfonditi dalla Cedu, e gli obiettivi di sviluppo economico e qualità dei servizi pubblici, così come sono erogati dalle istituzioni nazionali ed europee.

Anche le regole, tuttavia, da sole non bastano. Per quanto vitali e auspicabili, in un ambito dove l’innovazione scientifica e tecnologica si manifesta con forti accelerazioni e potenziali di impatto fortemente trasformativi del vivere sociale, alle regole va associata una puntuale e rigorosa attività che da un lato studi l’impatto e dell’altro accompagni la professionalità di tutti i decisori verso un nuovo paradigma.

La necessità di regolare sviluppo e uso dell’intelligenza artificiale e del digitale è ormai oggetto di consenso diffuso. Se, a livello europeo, le raccomandazioni che fissano il perimetro entro cui lo sviluppo e l’utilizzo delle tecnologie avanzate inquadrare intelligenza artificiale e digitale in termini sia etici sia giuridici sono il contributo principale dell’High Level Expert Group istituito dalla Commissione europea, a livello nazionale il bilanciamento fra trasparenza, controllo, tutela dei dati personali, concorrenza del mercato riporta in un nuovo panorama una vexata questio: fino a che punto chi detiene il sapere della techne può e deve essere sottoposto a controllo? Fino a che punto le istituzioni che si avvalgono di tecnologie e conoscenze che si riflettono in una forte asimmetria di potere nei confronti del cittadini devono essere sottoposte ad argini? È necessario che qualsiasi forma di utilizzo tecnologico sia in ultima battuta rispondente al diritto di disporre dei propri diritti – di cui ogni cittadino deve restare titolare – e che qualsiasi innovazione tecnologia si dispieghi in mercato dove le posizioni dominanti sono arginate ovvero evitate?

I modelli di risposta di cui disponiamo quando si tratta di coniugare sviluppo della tecnologia e della scienza con il rispetto dei diritti e delle libertà fondamentali non mancano. Basti pensare alla Danimarca con il suo Technology Assessment Board, alla Francia con la Commission Nationale per l’Information et les Libertés. Istituzioni diverse, la prima finalizzata a sottoporre l’utilizzo della tecnologia ad un controllo che combina rispondenza a standard scientifico- tecnici e standard etico- giuridici, la seconda finalizzata a monitorare se la produzione di informazione, lo stock di dati, la gestione degli stessi, attraverso tutti gli strumenti di cui disponiamo ad oggi, compresa la analisi dei big data e le forme avanzate di machine learning, sono rispettosi delle libertà fondamentali. Nel panorama che ci interessa vanno tenute in considerazioni anche le forme di monitoraggio e supervisione promosse ad esempio dal Supervisor europeo per i dati personali, cosi come le forme di autorità indipendenti.

È tempo di proporre una istituzione regolativa fra etica, diritto, e tecnologia, che coniughi tre funzioni: ricerca applicata sull’impatto del digitale e dell’IA sulle professionalità pubbliche e private, in particolare su tutti coloro le cui decisioni hanno un diretto impatto sui diritti dei cittadini e delle imprese; elaborazione di standard e di soft law che rispettino normativa primaria in ambito di economia digitale, concorrenza, tutela dati personali; monitoraggio, necessario ad assicurare che la funzione di rule making sia fondata sulla conoscenza della realtà che evolve, non una sua rappresentazione fittizia. Queste tre funzioni vanno messe in raccordo con due funzioni vitali: sanzione e formazione. L’istituzione regolativa non ha poteri giurisdizionali: il suo parere sarà però obbligatorio per adire un’istituzione giurisdizionale che assicuri la tutela dei diritti secondo i principi di giusto processo europei. Ai poteri paragiurisdizionali, che attengono a vigilanza e controllo, si associeranno la ricerca applicata – elaborata da una unità autonoma rigorosamente interdisciplinare – e la formazione permanente, ispirata proprio dai contenuti della ricerca e disponibile nel format di un ventaglio modulare di opzioni erogate con metodi blended. Questo per mettere gli attori che prendono le decisioni – sia nel pubblico sia nel privato – con l’ausilio di tecnologia digitale e di IA nella condizione di essere e sentirsi responsabili del loro operato, di saperlo spiegare e rendere leggibile, per istituzioni partner e cittadini o clienti.

Occorre evitare che l’istituzione in questione diventi una espressione di tecnocrazia. Non devono essere solo gli esperti a governare, ma non possiamo governare l’IA senza expertise. Come fare? I modelli a tripartizione dei componenti, provenienti da tre filiere professionali e di carriera diversi, appaiono particolarmente promettenti: esperti di scienze dell’informazione e matematica applicata, componenti assegnati da istituzioni partner, garante ed antitrust, rappresentanti di società civile organizzata provenienti dal mondo dell’economia, del terzo settore, della ricerca. Un meccanismo di nomina a turnazione, in modo che sia assicurata quella continuità necessaria a non perdere know how e memoria organizzativa. Il raccordo vincolante con le istituzioni europee rispetto alle quali la istituzione che qui si propone dovrebbe rispondere con rapporti annuali. Un’ultima notazione: la politica di comunicazione. Parlare di intelligenza artificiale e di digitale è possibile: parlarne in modo che sia possibile al cittadino comprendere è necessario.

Regolare la tecnologia nel rispetto dei principi costituzionali: tutti gli operatori del diritto hanno in tal senso una responsabilità, andare oltre il perimetro della comunità di esperti per farsi promotori di un orizzonte in cui il cittadino viene e verrà prima di tutto.

* Professore di scienza politica, componente Comitato di indirizzo scientifico Consiglio Stato e Comitato ricerca giustizia OCSE