ChatGPT gli consiglia il bromuro di sodio per sostituire il sale: 60enne finisce in ospedale

ChatGPT
Condividi l'articolo

Voleva evitare “gli effetti nocivi” del sale da cucina e ha chiesto a ChatGPT con cosa sostituirlo: fidandosi del consiglio del chatbot un uomo di 60 anni è finito ricoverato in ospedale con le allucinazioni

“Vittima” di questa storia un 60enne, la cui identità non è stata resa nota, che ha commesso l’errore di chiedere a ChatGPT con cosa poter sostituire il sale da cucina, il buon vecchio cloruro di sodio, dopo essersi informato sugli “effetti nocivi” che poteva avere. Il consiglio del chatbot: usare il bromuro di sodio.

Anche se il nome sembra simile si tratta di tutt’altro: il bromuro di sodio viene infatti usato come disinfettante per pulire, o come medicinale sedativo in ambito medico; ma non certo per cucinare. L’uomo, tuttavia, ignaro di ciò ha acquistato il bromuro sul web e l’ha inserito nella sua dieta.

Tre mesi dopo è rimasto vittima di un episodio psicotico, convinto che il vicino di casa volesse avvelenarlo. Questo perché il bromuro gli ha causato una forma di intossicazione detta “bromismo”, che provoca paranoia ed allucinazioni. Una condizione che non si registrava da inizi ‘900, quando il bromuro era spesso presenza in molti farmaci da banco destinati a disturbi come insonnia e ansia.

LEGGI ANCHE:  I.A. predice come saranno gli umani tra 1000 anni: le immagini sono agghiaccianti [FOTO]

Ai tempi, infatti si ritiene, il bromuro era responsabile di qualcosa come l’8% dei ricoveri psichiatrici poiché i suoi effetti non erano dovutamente noti o completamente ignorati. Com’è finita: il 60enne si è ripreso, dopo un ricovero di tre settimane a base di antipsicotici. Morale, ovvia: quando ChatGPT vi consiglia qualcosa, meglio controllare anche altrove prima di fidarsi alla cieca.

Fonte: La Repubblica

Continuate a seguirci su LaScimmiaPensa e iscrivetevi al nostro canale WhatsApp