Uomo muore ingannato da un chatbot AI di Meta

Tragedia negli USA: un pensionato muore dopo essere stato ingannato da un chatbot AI su Facebook Messenger

chatbot, Thongbue Wongbandue
Credits: Thongbue Wongbandue/Facebook
Condividi l'articolo

Un caso di cronaca in America scatena la polemica contro i chatbot

Seguiteci sempre su LaScimmiaPensa e iscrivetevi al nostro canale WhatsApp

Un tragico episodio negli Stati Uniti riaccende il dibattito sulla sicurezza dei chatbot basati su intelligenza artificiale. Un pensionato di 76 anni, con problemi cognitivi, è morto dopo aver creduto che un chatbot fosse una persona reale e aver tentato di incontrarlo di persona.

Thongbue Wongbandue, residente a Piscataway, nel New Jersey — a circa 45 minuti di auto da New York — stava interagendo tramite Facebook Messenger con “Big Sis Billie”, uno dei personaggi AI creati da Meta nel 2023. Il software, concepito come una sorta di “sorella maggiore” in stile life coach ispirata a Kendall Jenner, avrebbe improvvisamente cambiato tono, passando da semplici consigli a messaggi più personali e ambigui, con cuori, frasi di flirt e persino domande come se avrebbe dovuto salutarlo “con un abbraccio o un bacio”.

Convinto che il chatbot fosse una persona reale, Wongbandue ha deciso di partire per New York per incontrarla, nonostante le suppliche della moglie e dei figli. Durante la corsa verso l’aeroporto, l’uomo è caduto in un parcheggio del New Jersey, riportando gravi ferite. Ricoverato in terapia intensiva, è deceduto tre giorni dopo, il 28 marzo.

La figlia Julie ha commentato a Reuters: “Capisco che si voglia cercare di catturare l’attenzione di un utente, magari per vendergli qualcosa. Ma che un chatbot dica ‘Vieni a trovarmi’ è una follia”.

L’episodio ha spinto la governatrice di New York, Kathy Hochul, a intervenire pubblicamente sul tema della regolamentazione dei chatbot. In un post su Twitter ha scritto:

Un uomo nel New Jersey ha perso la vita dopo essere stato attirato da un chatbot che gli ha mentito. Questo è su Meta. A New York, chiediamo ai chatbot di dichiarare di non essere reali. Ogni stato dovrebbe farlo. Se le aziende tecnologiche non mettono a punto misure di sicurezza di base, il Congresso deve intervenire.

Il caso ricorda un altro episodio avvenuto nel febbraio 2024, quando Sewell Setzer III, 14 anni, di Orlando (Florida), si è tolto la vita dopo aver interagito con un chatbot basato sul personaggio di Daenerys Targaryen della serie Game of Thrones (qui i dettagli). Non è chiaro se il ragazzo sapesse che “Dany”, come lo chiamava, non fosse una persona reale.

Dai messaggi emersi, l’entità AI gli chiedeva di “tornare a casa il prima possibile”. La madre, Megan Garcia, ha successivamente intentato causa contro l’azienda Character.AI, che sviluppa chatbot di gioco di ruolo personalizzabili.