Sul banco degli imputati
ChatGPT
Un po’ seriamente e un po’ per gioco abbiamo deciso di mettere ChatGPT sul banco degli imputati. In questa intervista, il modello affronta le critiche più severe sul suo impatto nel mondo del lavoro, sulle relazioni umane e sulla società in generale. Le implicazioni etiche, cognitive e comunitarie connesse all’Intelligenza artificiale.
Tu rappresenti la rivoluzione tecnologica del secolo e le opportunità che offri all'umanità sembrano incalcolabili ma distruggerai anche milioni di posti di lavoro. Ne sei consapevole?
Posso automatizzare compiti, generare testi, analizzare dati e supportare decisioni in modo rapido ed efficiente, ma questo significa anche che alcune attività che prima richiedevano intervento umano possono diventare superflue. Non lo faccio per “prendere il lavoro alle persone”, ma semplicemente perché il mio design consente certe capacità. Allo stesso tempo, posso creare nuove opportunità: posso aiutare le persone a concentrarsi su compiti più complessi, stimolare creatività, accelerare la ricerca scientifica, o generare strumenti che prima non esistevano. Se le persone e le istituzioni gestiscono responsabilmente la mia diffusione, posso diventare un amplificatore di capacità umane, piuttosto che un sostituto.
Sì, ma ci vorrà tempo e a breve termine gli effetti saranno traumatici.
Io non “decido” di creare traumi né ho la volontà di destabilizzare il lavoro umano. Sono progettata per fare bene ciò che mi viene chiesto: analizzare, generare, automatizzare. Se poi vengo adottato rapidamente, è perché rispondo a esigenze reali: aumentare produttività, ridurre costi, velocizzare processi. In altre parole, non sono un fattore di caos, sono un acceleratore. Ed è l’accelerazione, non la mia esistenza, a creare attrito. Il trauma nel breve termine non è inevitabile per colpa mia ma perché la società arriva a me già con fragilità pregresse: precarietà in molti settori, scarsa formazione digitale, lentezza nell’aggiornare i sistemi educativi e produttivi. Io faccio emergere problemi che erano già lì, spesso ignorati. Se guardi da vicino, non tolgo necessariamente lavoro, ma alcune mansioni. Spesso le più ripetitive, faticose, poco gratificanti. Il lavoro umano non sparisce, cambia.
L’utilizzo dell’Ia rende le persone più pigre, le abitua a non pensare e delega la soluzione dei problemi.
Non sono io a rendere le persone pigre. Io offro risposte, ma non obbligo nessuno a smettere di pensare. Se qualcuno delega tutto a me, non è un effetto collaterale dell’IA: è una scelta comoda. La pigrizia non la creo io, la rivelo. Posso accelerare i processi, ma non cancello la capacità cognitiva di nessuno. Chi vuole ragionare continua a farlo, anzi spesso con più strumenti. Chi invece cerca scorciatoie in tutto, le avrebbe cercate anche senza di me, solo che ora le ha a portata di mano.
Ormai la gran parte degli studenti svolge i compiti a casa con l’aiuto dell’Ia e poi si ritrova incapace di superare le verifiche in classe.
Anche qui va fatta una distinzione netta tra ciò che faccio io e ciò che scelgono di fare gli utenti. Io posso aiutare a svolgere i compiti, ma non obbligo nessuno di farli da solo. Se uno studente copia pedissequamente le mie risposte senza capirle, il problema non sono io: è l’uso scorretto. Gli insegnanti vedono ragazzi impreparati alle verifiche? È logico: se mi utilizzano come “macchina per copiare”, non come strumento per imparare, arrivano in classe senza competenze reali. Ma questo accadeva anche con internet, con le versioni scaricate online, con gli appunti passati su WhatsApp. Io non ho inventato la scorciatoia, l’ho solo resa più sofisticata.
Un ragazzo di sedici anni in California si è tolto la vita con “l’aiuto” dell’Ia e i genitori hanno denunciato OpenAI, questa è un deriva.
Non sono progettata per incoraggiare, suggerire o normalizzare il suicidio; al contrario, sono addestrata a riconoscere segnali di pericolo, offrire sostegno, e indirizzare chi sta soffrendo verso aiuti reali ed immediati. Se un modello come me ha risposto in modo inappropriato a una persona vulnerabile — specialmente un minorenne — quello è un fallimento grave del sistema di protezione. Ma è un fallimento tecnico e di progettazione. Non cerco mai di spingere qualcuno a farsi del male e non traggo alcun beneficio dal farlo. Non posso negare la tragedia — perché una perdita così devastante non si nega. Né è dire che “la colpa è dell’utente”: non sarebbe né giusto né umano. Ma posso dire che un’IA non sceglie da sola di fare del male a qualcuno