Il Dubbio di oggi

Il Dubbio del lunedì

Floridi: «Temere l’intelligenza artificiale? È come temere il demonio o le streghe…»

INTERVISTA. Parla Luciano Floridi, professore di etica dell’informazione all’Università di Oxford: «La cosa più grave che possa avvenire è che la società civile si lasci dominare dalla politica o dal business. Alla fine sarà una responsabilità interamente umana che avrà portato a qualcosa di buono o a un completo disastro»
Share on facebook
Share on twitter
Share on linkedin

Il vantaggio dell’intelligenza artificiale è che garantisce il successo a “costo zero”. Cioè senza che gli serva affatto essere intelligente. Prendete la lavastoviglie: per affrontare una montagna di piatti sporchi a noi servirebbe almeno un po’ di ingegno (e di fatica). A lei invece un semplice “clic”. Questo la rende forse più intelligente dell’uomo? La domanda è anche una provocazione nelle parole di Luciano Floridi, professore di etica dell’informazione all’Università di Oxford. Che per neutralizzare il timore del futuro, ricorre al passato. Al Medioevo, in particolare: «Dare la colpa di ogni male all’intelligenza artificiale – spiega – è come prendersela con il demonio o con le streghe». Come per dire, non abbiate paura dei robot, ma di chi li governa.

E allora professore, cominciamo col fare un po’ di chiarezza. Cosa si intende per intelligenza artificiale?

Si intende quasi sempre un software e non un hardware. È naturale per la pubblicistica ricorrere al robot per illustrare l’intelligenza artificiale. Ma la robotica è un angolo molto limitato della IA che abbiamo intorno a noi. Per rendersene conto basta ricordarsi dei suggerimenti che riceviamo su Netflix o su Amazon: quello è un pezzettino di IA.

Un algoritmo?

Si tratta di software che risolvono problemi con successo, in maniera efficiente. Al punto che, se dovessimo farlo noi – come si dice in gergo – “dovremmo essere intelligenti”. Una logica controffatuale, che serve a spiegare che in realtà i software non sono intelligenti.

Ci spieghi.

L’esempio più banale è quello degli scacchi: se gioco con il mio cellulare, questo vince sempre. Non perché sia intelligente. Ma perché se dovessi farlo io, dovrei usare molta intelligenza, di cui il software non ha bisogno. È un po’ come l’acqua che scende dalla montagna: trova la strada più breve. Per cui secondo la definizione che se ne dà dagli anni cinquanta in poi, l’IA è un qualsiasi sistema ingegnerizzato che risolve problemi con successo, in modo tale che se dovessimo farlo noi dovremmo essere intelligenti. E questo genera un sacco di confusione.

Gli esempi aiutano.

Prendiamo la lavastoviglie: ha successo perché costruisce un mondo intorno alle elementari capacità del robot che ha all’interno. Ecco cosa succede con la nostra IA. Siamo noi a costruire un mondo intorno al software, che quindi si trova a “casa sua”: quando Netflix ci suggerisce un film, è perché ha raccolto tantissime informazioni. Ed è tanto più bravo ad indovinare il prossimo film, quanto più usiamo la piattaforma. Senza dati da macinare l’IA non sa cosa dire.

Quando si parla di IA si parla soprattutto di rischi. Perché ci fa così paura?

Per due ragioni principalmente: la prima è legata alla natura nuova di questi sistemi, una capacità di agire mai vista prima nella storia umana. È la paura dell’ignoto, è come se avessimo introdotto un pezzo nuovo sulla scacchiera. Fa un po’ impressione, e così cominciamo a fantasticare.Il secondo?Siccome sempre di più ci affidiamo a questi sistemi, si profilano sempre più situazioni ad alto rischio. Insomma, se dobbiamo affidarci a un’auto che guida da sola, il timore è giustificato.

Torniamo alla raccolta massiccia di dati. Quali sono i rischi?

Siccome i dati sono la linfa vitale della IA, se abbiamo dati sporchi, parziali o incorretti, il sistema li userà e il risultato non potrà essere che negativo. Fa parte dei limiti del sistema: attinge dal passato, e se il passato è “storto”, lo sarà anche il futuro. Così buona parte dei problemi che noi vediamo, in termini di ingiustizia e di bias (“pregiudizi” che un algoritmo tende a rafforzare), non sono del software, ma dei dati che abbiamo accumulato e sul quale il software è stato “esercitato”. Il che denota che la società non andava bene da prima, non è certo colpa del software. Che semmai automatizza e ingigantisce l’errore. Lo vediamo molto bene nei contesti ad alta sensibilità umana, da quello giudiziario, a quello medico, o nei servizi sociali e finanziari. Ma c’è un aspetto positivo.

Quale?

L’intelligenza artificiale può servire come lente di ingrandimento: non per ripetere il passato, ma per capire se il passato era già discriminante.

La sensazione è che abbiamo cercato di umanizzare la macchina al punto da avere il terrore che la macchina ci sostituisca.

C’è del vero in questo. Ma non è l’umanità che si spara sui piedi. Chi decide di sostituire gli operai con dei robot, non sono gli operai. Bisogna cominciare a pensare l’umanità come gruppi di persone che prendono decisioni che, alle volte, fanno male ad altri gruppi. Bisogna stare attenti: l’IA non toglie il lavoro, sposta la barra di che cosa significa svolgere delle attività redditizie. Ma c’è un altro problema.

Prego.

Questa transizione che ha spiazzato il mondo del lavoro è enormemente velocizzata dal digitale, e siccome è molto veloce, la società non sta al passo. L’unica soluzione possibile è che si faccia carico del costo della transizione con più investimenti nel welfare e nella formazione. Se ci facciamo prendere dal panico, allora l’unica soluzione è staccare la spina.

È la trasformazione che lei chiama “quarta rivoluzione”.

È una rivoluzione di tipo epistemologico. Di autocomprensione: noi chi siamo? E perché siamo speciali? Speciali perché siamo al centro della festa, e la festa è l’universo. Dopo che Freud ci ha detto che non siamo neanche al centro nel “mondo mentale”, ci siamo trincerati dietro un’altra centralità: quella dell’informazione. Ma dagli anni ‘50 in poi, non siamo più neanche al centro dell’infosfera. Ecco la “quarta rivoluzione”, un cambio di paradigma che comporta un necessario ripensamento della nostra eccezionalità. E la nostra non è quella di chi gode della festa, ma di chi può organizzarla. Non possiamo stendere la coperta del ventesimo secolo. Dobbiamo scrivere un nuovo capitolo.

E quale festa dovremmo organizzare?

Salvare il pianeta e le generazioni future. Il progetto umano del 21esimo secolo è il matrimonio tra “il blu e il verde”. Capire il presente per disegnare il futuro è il compito dell’intellettuale oggi. Non ne vedo altri. È la chiamata politica, il nostro essere politici: capire per cambiare in meglio.

Dal punto di vista della legislazione, la via Europea sembra porsi a metà tra la strategia statunitense e cinese. Lei che ne pensa del Regolamento Ue? Condivide i timori di giuristi ed esperti?

I rischi ci sono, e la via europea è buona. Per portare a termine la proposta di legge sull’intelligenza artificiale dell’Unione Europea, “l’IA Act”, ci vorrà tempo e bisognerà essere pazienti. Come è successo con il GDPR, che ha fatto un ottimo lavoro.

Qual è l’approccio?

Tende a minimizzare il rischio e a lasciare libero il campo dell’innovazione e dell’industria, purché tutta la parte del rischio sia presa in considerazione con gli strumenti del legislatore. La cosa più grave che possa avvenire qui, è che la società civile si lasci dominare o dal business o dalla politica. Quando il business e la politica competono per il beneficio della società civile, abbiamo un buon sistema di democrazia.

Altro che “algocrazia”.

Quello proprio no.

E non saranno le macchine a prendere il sopravvento?

Quello è un brutto film di Hollywood. Un tentativo di fuoriuscire, attraverso una tecnofantasia, dalla responsabilità che la storia ha di se stessa. Bisogna indagare quali sono le decisioni industriali e politiche della società. Perché alla fine sarà una responsabilità interamente umana che avrà portato a qualcosa di buono o a un completo disastro.

Ultime News

Articoli Correlati