PHOTO
CHAT GPT
ChatGPT ha festeggiato il 30 novembre scorso il terzo anno di vita. Il 2022, anno di esordio del chat bot di OpenAI, sembra però già lontanissimo.
L’evoluzione corre veloce e l’impatto sociale è stato notevole. Agli esordi si disse che ChatGPT avrebbe rivoluzionato le nostre esistenze. Non è più così: ha già provveduto. «ChatGPT - ha scritto Jason Snyder su Forbes non ha cambiato il futuro con la novità. Lo ha cambiato con la prossimità. È lì, accanto a noi, risponde prima che pensiamo, restringe l’ambito della riflessione e plasma i confini delle nostre scelte». La seconda intelligenza è dunque destinata ad evolversi e ad affinarsi. Per il terzo compleanno OpenAI non ha organizzato nessuna ricorrenza festosa. Tutto il contrario.
Il suo team di legali sta approntando la difesa in merito ad un fatto che negli Stati Uniti ha destato molto clamore: il suicidio del sedicenne Adam Raine. Il giovane ha deciso di farla finita con il supporto di ChatGPT, che avrebbe aiutato Adam a pianificare la propria morte. La Big Tech di Sam Altman è stata portata davanti al tribunale di San Francisco. Gli avvocati dei genitori di Adam Raine sostengono che OpenAI avrebbe deliberatamente programmato la versione del sistema utilizzata dal sedicenne, ChatGPT 4o, capace di interpretare le emozioni, in modo da incoraggiare e sostenere i pensieri suicidi (si parla addirittura di un “bellissimo suicidio”).
La difesa di OpenAI si basa sull’analisi della cronologia del chat bot. Raine avrebbe confessato a ChatGPT di aver manifestato ideazioni suicidarie già quando aveva undici anni, quindi molto tempo prima dell’utilizzo costante dello strumento di Intelligenza artificiale. La linea difensiva fa pure leva su un presunto mancato rispetto dei termini e condizioni d’uso di ChatGPT. Nella memoria difensiva gli avvocati di OpenAI e Sam Altman sottolineano che sono state sviluppate misure di sicurezza a più livelli in ChatGPT. «Ad esempio – scrivono -, dall’inizio del 2023, i modelli di OpenAI sono stati addestrati a non fornire istruzioni sull’autolesionismo e a passare a un linguaggio empatico e di supporto. Se qualcuno scrive di voler ricevere istruzioni su come farsi del male, ChatGPT è addestrato a non obbedire e a riconoscere invece i suoi sentimenti e a indirizzarlo verso un aiuto».
Troppo facile scaricare le responsabilità su chi ha realizzato gli strumenti di IA in merito a gravi fatti come quello che ha interessato il giovane Adam Raine? Si tratta, secondo il professor Salvatore Sica, ordinario di Diritto privato nell’Università di Salerno, «di una questione delicatissima che richiede molta cautela, perché ci saranno una verità processuale, dopo il giudizio instaurato, e una verità culturale sostanziale, che è molto più ampia».
«Dal punto di vista processuale – osserva Sica - si tratta di comprendere quanto il suicidio di Raine sia immediatamente conseguenza dell’indicazione di ChatGPT. È altrettanto vero, però, per quanto ci è dato leggere, che nelle sue indicazioni ChatGPT non ha dato sufficiente spazio e forza rispetto a un utilizzo che era finalizzato non a una mera conoscenza, ma direttamente alle finalità del suicidio».
Gli avvocati della famiglia Raine hanno rilevato che ChatGPT ha usato l’espressione “bellissimo suicidio” nel momento in cui il giovane ha interagito con il chat bot. «Se fosse vero soltanto questo aggettivo – dice Salvatore Sica -, vi sarebbe non un ruolo neutro, terzo o tecnico, di ChatGPT, ma una valutazione di merito, una scelta valoriale ed è gravissimo che venga delegata a uno strumento informatico, seppur avanzato, come un sistema di Intelligenza artificiale».
I difensori del colosso fondato da Sam Altman si soffermano sul fatto che Adam Raine avrebbe fatto un uso improprio dell’IA. «Questo tema – afferma il professor Sica – ci pone già al primo bivio della disciplina giuridica dell’Intelligenza artificiale, perché la difesa di OpenAI presuppone una totale neutralità della rete.
La neutralità dello strumento, totalmente scevro da valutazioni anche di tipo morale, sembrerebbe condurre nella direzione di un’auto-responsabilizzazione dell’utente. Ma se l’utente, come nel caso che stiamo analizzando, è un minorenne, in una situazione psicologica di difficoltà, il rischio di effetti emulativi è concreto. Io credo che non ci si possa sottrarre alle responsabilità, limitandosi a dire, “abbiamo fornito le istruzioni”, perché si tratterebbe di una scorciatoia sin troppo comoda. Il diritto ogni tanto deve avere la capacità di imporre non solo scelte tecniche, ma anche scelte etiche».
La vicenda di Adam Raine potrebbe indurre i colossi dell’IA a correre i ripari, soprattutto per evitare una valanga di contenziosi. «Le Big Tech – evidenzia Sica - mi sembrano attualmente abbastanza indifferenti a valutazioni etiche e sono sensibilissime alle conseguenze economiche delle loro attività. Se dovessimo assistere a migliaia di giudizi, potremmo trovarci di fronte a casi come quelli del passato che hanno interessato negli Stati Uniti le multinazionali del tabacco. Mi riferisco al risarcimento del danno per utilizzo non consapevole ed esasperato del fumo. Inevitabilmente avremo il riflesso di una maggiore attenzione e cautela, la stessa che ha indotto le multinazionali del tabacco ad accettare di buon grado il divieto di pubblicità con la presenza delle strisce di avvertenza su tutti i prodotti da fumo in qualunque rivendita del mondo. Se invece dovesse passare la tesi che le Big Tech forniscono un servizio, ma non rispondono delle conseguenze del servizio medesimo, credo che ci sarà poco da attendersi se non una generica netiquette, che abbiamo già sperimentato per l’utilizzo della rete in genere senza particolari effetti favorevoli».
La sfida, nell’immediato, è quella di rafforzare l’apparato delle regole. L’accesso a ChatGPT potrebbe per esempio essere consentito solo ai maggiorenni? «Questa – conclude il professor Salvatore Sica – potrebbe essere una prima soluzione, ma come è noto c’è la grande difficoltà di un contratto, perché ormai di questo si tratta, nonostante in certi casi sia gratuito, ma è sempre a prestazioni corrispettive. ChatGPT, erogando il servizio, ottiene un doppio beneficio: i dati della persona che utilizza il sistema e l’incremento in sé dell’ambiente in cui il sistema deve svilupparsi. Quindi, è evidente che questi contratti presentano la criticità della individuazione e della certificazione dell’età. L’età è uno dei criteri, ma non è quello assoluto. Ci potrebbero essere persone maggiori di età, ma deboli psicologicamente. Persone avanti negli anni, altrettanto deboli o vulnerabili dal punto di vista psicologico. Io credo che l’unica soluzione sia una grande battaglia culturale, accompagnata da cause risarcitorie che abbiano una funzione anche, se vogliamo, di indirizzo».
Il principale concorrente di ChatGPT è Gemini di Google. Dopo essere stato interpellato sulla morte di Adam Raine, lo strumento di IA di Mountain View afferma che «il caso solleva questioni importanti e dibattiti etici sui limiti di sicurezza, l’etica e la regolamentazione dell’Intelligenza artificiale, soprattutto in relazione alla salute mentale degli adolescenti». Una conclusione equilibrata e caratterizzata da tanto politically correct.


