In realtà parlare di consenso informato a fronte dell’intelligenza artificiale, significa parlare di “meno consenso informato”. Certamente in ambito sanitario i sistemi di IA costituiscono un supporto nei processi di prevenzione, diagnosi, cura e scelta terapeutica, lasciando impregiudicata la decisione che sempre dovrebbe essere rimessa agli esercenti la professione medica. Il problema è allora fino a quale grado di dettaglio il paziente debba essere informato del fatto che il trattamento sanitario, nel suo complesso, si basi su questa nuova tecnologia.

Peraltro, solo di recente, a seguito del ddl 20 marzo 2025, disegno di legge di iniziativa del governo, il nostro ordinamento contempla una norma (art. 7, comma 3, Uso dell’intelligenza artificiale in ambito sanitario e di disabilità) che menziona l’uso della IA e puntualmente prescrive al medico di informare il paziente che la diagnosi e la terapia si basano sulle tecnologie di intelligenza artificiale. In genere, ai fini degli obblighi informativi spesso troviamo usati gli aggettivi: comprensibile, chiaro, completo, trasparente.

In particolare, si sottolinea che ogni paziente dovrebbe conservare il proprio diritto ad essere informato, in un linguaggio chiaro e comprensibile, delle modalità e dei passaggi con cui si stanno applicando le soluzioni di cura. L’informazione è finalizzata non a colmare l’inevitabile differenza di conoscenze tecniche tra medico e paziente, ma porre quest’ultimo nella condizione di scegliere consapevolmente nel corso di tutto il percorso della cura. Tuttavia, non dobbiamo stupirci se già di per sé il processo del consenso informato è stato ridotto ad un modulo d’informazione, scritto in un linguaggio tecnico complesso, difficile da comprendere, contenente informazioni, mai nella realtà illustrate fino in fondo.

Ne consegue che nella generalità dei casi dobbiamo prendere atto dell’inefficacia, anche sotto il profilo dell’onere della prova, della gran parte dei moduli di consenso informato esibiti al paziente. Se questo avviene già nei casi in cui non si parla dell’utilizzo degli strumenti di IA, non è difficile immaginare quale possa essere l’informazione sull’impiego di queste ultime tecnologie in cui il medico, detentore delle informazioni tecniche specifiche, si dovrebbe porre a disposizione del paziente per renderlo consapevole del suo consenso.

È evidente il rischio per il paziente di immaginare e per il medico di spiegare quali conseguenze positive o negative potrebbero scaturire da questi nuovi progressi tecnologici. Una gran quantità di parole misteriose si riscontrano nelle nuove procedure - globalizzazione, blockchain, ingegneria genetica, machine learning, intelligenza artificiale, big data, algoritmi, cloud, ecc. - che rendono l’attività medica sempre più complessa e forse poco comprensibile per la persona comune. Il cittadino- paziente potrebbe pensare che gli si racconti l’ultima storia di fantascienza uscita sugli schermi che ci ha prospettato la possibilità di avere macchine in mezzo a noi in grado di agire per noi o contro di noi o di pensare come un essere umano. Molte di queste difficoltà vengono vissute anche dal medico non sempre in grado di dare risposte adeguate a fronte di richieste concernenti l’IA.

Non è casuale che il Regolamento europeo del 2024 preveda un addestramento di almeno due anni da parte di coloro che faranno uso della intelligenza artificiale e fra questi vi rientra il medico. Tutto ciò rende la vicenda sanitaria sempre più complessa e forse accettata più sulla fiducia verso il medico che non su di una effettiva comprensione.

Credo allora che al medico, qualora ne sia capace, vada lasciata una certa libertà di sottacere spiegazioni troppo specialistiche, troppo dettagliate di questa tecnologia. In particolare questa libertà dovrebbe consentire al medico di valutare le necessità del proprio paziente e tenere conto della sua vulnerabilità.