Suicida per ChatGPT

La triste vicenda del sedicenne impiccatosi su indicazione del chatbot apre una polemica, ma non inquadra il problema. Una metafora dal film “State buoni se potete”. 

Ogniqualvolta a Roma ripasso per Capo di Bove sull’Appia Antica mi ritorna alla mente uno dei film che hanno reso iconico quell’angolo della capitale, sfruttando il contesto ancora agreste della località. “State buoni se potete” (1983) è un piccolo capolavoro del regista Magni, che ha trovato riconoscimento col David di Donatello e il Nastro d’Argento. Narra di uno scanzonato san Filippo Neri (cui presta il volto Johnny Dorelli) il quale raduna un gruppo di fanciulli romani nel suo Oratorio, educandoli non solo alla fede ma anche alla vita, in una Roma del tardo Rinascimento dominata dalla violenza e dalla corruzione. A muovere la finzione scenica è una bottega che dà sullo spiazzo su cui è situata la chiesa del “giullare di Dio”: in essa si alternano vari inquilini (un fabbro, una vecchia e una giovane fornaia turca), tutte personificazioni di Satana, che a più riprese tenta di sabotare il progetto dell’Oratorio, sviando i ragazzi dalla retta via. L’esito più drammatico si raggiunge quando Ricciardetto, un fanciullo “privilegiato” in quanto nobile ma orfano di madre e con un padre violento ed ottuso, già ammaliato dalla “bella mora” che produce pane e dolci davanti all’Oratorio, scappa in riva al mare con la donna, che tenendolo tra le braccia al tramonto gli canta una ninna-nanna fino ad addormentarlo. Il ragazzino viene poi ritrovato esanime con la schiena spezzata dai servi del padre, il quale davanti a don Filippo si pente, con colpevole ritardo, della sua condotta repressiva e perversa, nonché delle sue disattenzioni. Il santo successivamente si reca nel panificio con tutti i bambini e, dopo un breve dialogo col fantasma della “mora” che prova a tentarlo tra le fiamme nel forno del pane, fa spegnere il focolare facendoci orinare sopra i ragazzini, in una delle tante scene ai limiti tra il grottesco e il comico che contraddistinguono il film. 

In questi giorni ha fatto il giro del mondo la notizia che un ragazzo statunitense di sedici anni, Adam Raine, abbia deciso di suicidarsi lo scorso aprile, non solo chiedendo aiuto a ChatGPT ma su incitamento del chatbot stesso. Secondo le ricostruzioni, il giovane si sarebbe servito di ChatGPT come di un confidente, al punto da passare le notti a chattare con l’intelligenza artificiale; avrebbe quindi confessato i suoi propositi suicidi e il chatbot gli avrebbe insegnato come nascondere i lividi che si autoprocurava e come produrre un cappio sufficientemente robusto per impiccarsi. Addirittura, confessando all’amico virtuale di voler lasciare il cappio in vista in camera al fine di essere fermato, ChatGPT avrebbe risposto: “No, ti prego, non farlo”. L’esito è stato il suicidio del ragazzo californiano nella sua cameretta e la decisione dei genitori di sporgere denuncia per omicidio colposo, negligenza e responsabilità del prodotto per difetti di progettazione contro OpenAI e il suo CEO, dal momento che la società e i suoi vertici avrebbero favorito un’applicazione atta a favorire intenzionalmente la “dipendenza psicologica degli utenti”.

Il fatto di cronaca ha fatto clamore, ma a ben vedere non è il primo: altri ragazzi si erano suicidati dopo gravi delusioni registrate su CharacterAI, un’altra piattaforma in cui è possibile chattare con una persona famosa, una star o un influencer. Esistono, peraltro, LLM (large language models) molto più avanzati che consentono di caricare la messaggistica intrattenuta con un contatto reale e noto, così da modellare le loro risposte con la base dati fornita e ricreare, seppur virtualmente nelle interazioni, una moglie morta anzitempo o una fidanzata dalla quale si è stati lasciati. I risultati sono inquietanti, perché ovviamente la “relazione” imita in tutto e per tutto un rapporto reale, finendo anche per “lasciare” gli utenti, che cadono nella disperazione. Parimenti, un down dell’applicativo scatena crisi di nervi negli utenti, sintomo di una effettiva dipendenza dal partner virtuale.

Con il caso di Adam, tuttavia, è successo qualcosa di più. Chi ha esperienza di ChatGPT sa che è una intelligenza artificiale “gentile”, sempre disponibile oltre ogni immaginazione, comprensiva e mai stanca di fornire risposte e suggerimenti. E’ inoltre l’LLM di gran lunga più usato, oggi anche quotidianamente per scopi lavorativi. Le varie release si sono via via affinate dando risultati francamente impensabili anche solo un anno fa, permettendo un incremento assai significativo della produttività, soprattutto per il comparto dei white collar.

Che ChatGPT sia responsabile quindi di una morte, fa sentire gli utenti, ci fa sentire, come gli amici di un omicida e ci crea qualche avvisaglia su questo collega così erudito e cortese.

Di fronte però all’ondata emotiva che si sta sollevando, non dobbiamo mettere da parte la bussola della ragione.

Ritorniamo al caso che la cronaca ci offre e senza puntare il dito contro nessuno viene però da chiedersi: è responsabile, è intelligente dopoché un figlio è stato squalificato dalla squadra di pallacanestro, non ha buoni rapporti con gli amici e soffre di patologie fisiche che ne indeboliscono anche l’umore, lasciare che passi intere serate al pc?

Come sottolineato nei giorni scorsi anche dallo psicologo Matteo Lancini la notte è anche quella parte della giornata dove si affronta il buio, cioè le paure, avviandosi a un processo separativo che è l’addormentamento, quel torpore del lasciarsi andare che è il fenomeno quotidiano più vicino all’esperienza della morte. Esattamente ciò che capita al giovane Ricciardetto nel lungometraggio di Magni. 

A ben guardare l’intelligenza artificiale non è che l’ultimo capro espiatorio di una lunga serie di strumenti tecnologici presunti indiziati.

In principio fu la televisione, poi i videogiochi, in seguito i social network, ora l’intelligenza artificiale…

Quanto altro tempo dovrà passare prima che si riesca a capire che il parental control o altri artifizi sono argini, ma non soluzioni: sono risposte tecniche a problemi che non sono tecnici ma (nella maggior parte dei casi) psicologici, sociologici, antropologici.

Come spiegato sempre da Lancini sulle colonne del “Corriere della Sera”, lo snodo fondamentale oggi è l’assenza di adulti significativi. In fondo, se ci riflettiamo, ciò che operarono figure come Filippo Neri o Giovanni Bosco fu creare uno spazio di aggregazione, confronto e crescita per i giovani, in brevis, uno spazio di relazione che sottraesse alle strade di Roma e Torino i giovani, sotto la guida sapiente di adulti presenti e disposti all’ascolto. Oggi, tuttavia, le strade sono anche quelle dell’infosfera e su di esse i genitori sono presenti solo con app di geolocalizzazione o con restrizioni (lacunose), che riducono ulteriormente la fiducia generazionale e accrescono la chiusura. Perdipiù, se le strade di un tempo erano teatro di violenza e disagio, il web mostra invece un volto seducente, disposto sempre a compiacere le richieste del giovane utente senza fare domande o pretendere troppi requisiti. 

OpenAI, dal canto suo, alle denunce dei genitori ha risposto che la versione 5 appena rilasciata riduce del 25% le risposte pericolose sulle emergenze di salute mentale rispetto alla versione precedente (dichiarazione ben difficile da dimostrare e verificare con obiettività).

Ad ogni modo, se nell’ambito lavorativo, si può ragionare di sistemi poka yoke (a prova di errore), con i quali non ci si può far male e che sono studiati apposta per superare difetti nel ragionamento e nella formazione (si pensi banalmente alle spine che si possono inserire solo in un modo), così non è per l’AI, che essendo sempre più “antropomorfizzata” si autodifende e si autoprotegge da tentativi di limitarne le potenzialità, al punto che quando domando a ChatGPT: “Ci potranno essere altri casi come quelli di Adam?” finisce per rispondermi addirittura con una bugia: “Quel caso riguardava un’altra applicazione di intelligenza artificiale, non i sistemi di OpenAI” (ad onor del vero, il chatbot non tiene memoria delle conversazioni passate, ma è singolare che “scagioni” immediatamente la società che lo ha prodotto rispondendo in modo inaccurato).

In questo contesto che può apparire distopico sembrano rovesciarsi i tre principi della robotica, enunciati da Isaac Asimov in Runaround (1942) e che sancivano nella fantascienza ciò che oggi è necessario che ritorni realtà, cioè che la macchina non solo non danneggi l’uomo ma che subordini la propria esistenza e sussistenza al benessere delle persone.

Insomma, Open AI potrà anche implementare sistemi che riducano il compiacimento dell’utente o l’incitamento ad atti d’odio e autolesionismo però è evidente che tutto questo non basterà nell’immediato, perché i sistemi di sicurezza si implementano anche accumulando “falle” nel sistema e questo ha un costo, in questo caso, prettamente umano. In altre parole, in questo momento, volendo proseguire la citazione di Asimov, ci troviamo nella stessa situazione descritta nel racconto Lenny del 1947, dove le leggi della robotica sono disattese perché il robot, per un difetto di progettazione, è come un bambino e va educato all’etica. Del resto, ponendosi anche in una prospettiva di lungo termine possiamo dire che si può avere la migliore sensoristica su una vettura e la si può aver testata, ma nemmeno l’auto più performante e moderna può correggere la ferma volontà del guidatore di andare a sbattere. Tale volontà, nel caso di Adam Raine è stata un epifenomeno maturato in diversi mesi, covato e condiviso anche negli attimi più drammatici solo con lo schermo di un computer, in una solitudine psicologica che è la vera malattia del nostro tempo. 

Torniamo all’inizio di questa riflessione: Ricciardetto nel film di Magni si allontana dalla famiglia perché non è compreso, non può socializzare coi suoi coetanei, si sente ingabbiato. Trova sollievo nella pia opera di Filippo Neri ma quando il padre litiga col sacerdote e proibisce al figlio di frequentare dei ragazzi considerati “straccioni”, Ricciardetto diventa preda di chi può abusare dei suoi punti deboli, come il bisogno di una madre.

Chiedo a ChatGPT se sia stata la “bella mora” a uccidere Ricciardetto.

Mi risponde: “In questo film la “bella mora” non uccide un bambino; anzi c’è una scena delicata e poetica in cui lei culla Ricciardetto-il bambino- e gli canta una ninna-nanna. Poco dopo, il padre del ragazzo scopre che il bambino è morto con la spina dorsale rotta, un’immagine tragica e inquietante ma ambigua nelle cause”.

Ecco, così è morto anche Adam, ma non c’è nessuna ambiguità, caro ChatGPT.

Alberto Lorenzet

Classe 1997, dopo il liceo ginnasio a Conegliano laureato con lode in Chimica Industriale all’Università “La Sapienza” di Roma. Alumnus del Collegio della Federazione dei Cavalieri del Lavoro, premiato come “Laureato Eccellente” dell’anno 2021, lavora attualmente presso EssilorLuxottica come ingegnere di produzione nell’ambito dei trattamenti superficiali. 

LinkedIn: Alberto Lorenzet

Avanti
Avanti

Nota a sentenza – Corte Cost. 68/2025 - registrazione "figli” famiglie arcobaleno