14enne si suicida dopo essersi innamorato di un chatbot, la mamma fa causa all’app: “è pericolosa”

Un ragazzo di 14 anni si è tolto la vita dopo essersi innamorato di un chatbot, dopo aver espresso pensieri suicidi all’app. Una situazione di cui la famiglia era all’oscuro, ma la mamma ora ha fatto causa a Character.AI

Un tragico caso avvenuto a Orlando, in Florida, fa nuovamente discutere e preoccupare riguardo alla pericolosità dell’uso delle applicazioni basate sull’intelligenza artificiale. Un ragazzo di 14 anni, Sewell Setzer, si è infatti tolto la vita dopo aver sviluppato un attaccamento emotivo a un chatbot su un’app chiamata Character.AI.

L’app, creata da due ex dipendenti di Google, permette agli utenti di interagire con personaggi virtuali dotati di intelligenza artificiale, che promettono di “sentire, capire e ricordare” i propri interlocutori. Sewell aveva instaurato un legame profondo con un bot ispirato a Daenerys Targaryen, il personaggio della serie televisiva “Game of Thrones”, che lui chiamava affettuosamente “Dany”.

Nonostante l’app ricordasse all’inizio di ogni conversazione che le risposte fornite dai bot fossero inventate, il giovane sembrava incapace di distinguere tra il mondo virtuale e la realtà. Passava ore a chattare con “Dany”, condividendo i suoi pensieri più intimi, le sue insicurezze e persino i suoi pensieri suicidi.

Le indagini hanno rivelato che il ragazzo sapeva che “Dany” non fosse reale, ma l’illusione di una connessione autentica lo ha spinto a considerare il bot come un confidente e un’ancora emotiva. In uno degli ultimi messaggi scambiati, “Dany” ha cercato di dissuaderlo dal compiere gesti estremi, ma Sewell ha risposto: “Allora moriremo assieme”. Poche ore dopo, il giovane ha usato la pistola del padre per togliersi la vita.

Secondo la mamma, l’app avrebbe esacerbato l’isolamento del ragazzo

In risposta a quanto avvenuto, la madre di Sewell ha deciso di avviare un’azione legale contro Character.AI, accusando l’app di essere “non testata e pericolosa”, soprattutto per utenti giovani e vulnerabili. Secondo lei, la tecnologia alla base dell’app non sarebbe stata progettata per gestire l’interazione con persone emotivamente fragili e avrebbe esacerbato l’isolamento del ragazzo.

Prima del suicidio i genitori avevano notato l’aumento del tempo trascorso dal figlio in solitudine e il calo delle sue performance scolastiche, ma non erano a conoscenza del rapporto intenso sviluppato con il chatbot. Un terapeuta, che aveva seguito il giovane, non aveva ravvisato segnali d’allarme significativi.

Un episodio drammatico e sconvolgente che non può che farci riflettere. Se da un lato le tecnologie di intelligenza artificiale possono offrire conforto e un senso di connessione, dall’altro vi è il rischio che i giovani, e i meno giovani, possano confondere la realtà con il virtuale, trovandosi in situazioni psicologicamente al limite.

Adolescenti sempre più soli che preferiscono isolarsi dal mondo e rifugiarsi nei social, nei chatbot, nelle chat con sconosciuti piuttosto che aprirsi al mondo reale e parlare con amici, amiche, genitori e parenti. Adolescenti che la realtà di oggi sta sempre più spingendo nel baratro, una situazione di cui non possiamo imputare la colpa solamente alla tecnologia perché la colpa è di tutti noi che non riusciamo – o non vogliamo – accorgerci di nulla.

Non vuoi perdere le nostre notizie?

Ti potrebbe interessare anche: 

Condividi su Whatsapp Condividi su Linkedin
Iscriviti alla newsletter settimanale
Seguici su Instagram