Parlare di intelligenza artificiale significa anche parlare di robotica. Due discipline strettamente correlate che uniscono la creazione di macchine fisiche ( robot) con la capacità di elaborare dati, imparare e prendere decisioni autonome, trasformando settori grazie all’efficienza, alla precisione e alla flessibilità che acquisiscono con l’IA. Questa fornisce il “cervello” cognitivo ai “corpi” fisici dei robot per adattarsi a compiti complessi e imprevisti. La robotica in questi decenni ha fatto progressi tecnici impensabili e, di conseguenza, le sue applicazioni sono state estese a nuovi settori sociali. Gran parte della crescita della IA sarà in un prossimo futuro guidata dai robot per diverse ragioni: saranno più economici, più intelligenti, più flessibili e più facili da istruire nei diversi campi applicativi.

L’Intelligenza artificiale e la robotica costituiscono oggi le chiavi di lettura della Quarta Rivoluzione industriale e verosimilmente rappresenteranno anche gli elementi centrali delle rivoluzioni scientifiche del prossimo futuro. Entrambe forniscono importanti opportunità di sviluppo e dispongono di un elevato potenziale innovativo in grado di impattare su svariati ambiti della vita economica del Paese, nelle dinamiche sociali e nel miglioramento delle qualità della vita.

Vi sono, però, una serie di aspetti legati alla diffusione di queste nuove tecnologie che non possono essere sottovalutati. Tra di essi certamente la sostenibilità ambientale ed energetica, lo sviluppo di nuovi materiali impiegati in robotica, l’interazione tra uomo e robot che muterà inevitabilmente i comportamenti dell’individuo nel suo essere “sociale”. Diviene allora imprescindibile che la legislazione e l’etica ne considerino le implicazioni e le conseguenze senza ostacolare l’innovazione.

Ma va anche considerato che si tende sempre di più a far acquisire al robot una propria “autonomia”: cioè la capacità di prendere decisioni e metterle in atto indipendentemente da un controllo o un’influenza esterna. Tale autonomia è di natura esclusivamente tecnologica e il suo livello dipende dal grado di complessità con cui è stata progettata l’interazione di un robot con l’ambiente. Muovendo da questa considerazione, il dilemma della responsabilità è uno degli aspetti più problematici nello sviluppo di nuovi sistemi di IA. Non è chiaro se la responsabilità per alcune decisioni prese da un sistema artificiale debbano essere attribuite al suo sviluppatore, al venditore del software, all’utilizzatore, o a terze parti. Il che a sua volta pone il quesito se le regole attuali in mater civile o penale verso terzi siano sufficienti o se siano necessarie nuove regole volte a chiarire la responsabilità legale dei vari attori per azioni di omissioni imputabili ai robot.

Attualmente, muovendo dal presupposto di una limitata autonomia del robot, le norme esistenti in materia portano ad uno specifico agente umano, che avrebbe potuto prevedere ed evitare il comportamento nocivo del robot. Ma ancora oggi non vi è chiarezza su chi debba essere considerato il responsabile del danno causato a terzi. Il fatto che vi sia una catena di comando cui far risalire la responsabilità dell’azione non è sufficiente, dato che l’anello della catena ha il suo punto di fragilità e data la complessità della struttura gestazionale e dell’azione. Non è scontato rispondere alla domanda etica o giuridica: chi alla fine ha la responsabilità di quanto eventualmente accade a danno del terzo e se questa responsabilità sia unica. Ritengo che per le applicazioni che possono avere un impatto significativo su società, persone e cose, occorra attribuire ex ante la responsabilità connessa all’impiego di tali sistemi, invece di attendere la valutazione ex post di un soggetto chiamato a rispondere a responsabilità oggettive. I termini contrattuali, che dettagliano diritti, facoltà, immunità e privilegi, devono essere chiari ed accessibili.

Oggi siamo vicini ad una normativa che ci riporta alla categoria elaborata dalla giurisprudenza della “responsabilità da contratto sociale”, che ipotizza un’ob bligazione che si collega al dovere di diligenza nell’osservare le regole dell’arte che si professa. Tuttavia, va considerato che più si ridurrà il grado di responsabilità dell’umano più si porrà il tema della possibile responsabilità penale o civile direttamente dei sistemi di IA. Maggiore è il senso di sé delle macchine, che dà loro coscienza, minore è la possibilità di garantire tale controllo attraverso le norme attuali. La tesi che va prendendo piede negli ultimi anni è la seguente: poiché l’errore commesso da macchine sofisticate è imprevedibile, non potrebbe essere chiamato a risponderne né chi ha prodotto la macchina né coloro che la usano, i quali di norma non hanno alcun potere di controllo sull’algoritmo che sta alla base del funzionamento. Di conseguenza, occorre concepire un nuovo sistema giuridico che attribuisca alla macchina stessa la responsabilità del suo errore, errore le cui conseguenze dovrebbero essere assorbite da un “sistema di assicurazione” obbligatoria o, in mancanza, da un fondo di garanzia, alimentato dai produttori di software. Per concludere, andiamo concentrando la nostra attenzione sempre più su macchine robotiche, correndo il rischio che gli esseri umani saranno sempre più obsoleti. Allora posso tornare a richiamarmi al coinventore della IA Marvin Lee Minsky quando, dietro domanda, ebbe a rispondere: «I robot erediteranno la terra? Sì ma quei robot saranno i nostri figli!».