I chatbot AI continuano a nutrire le nostre peggiori illusioni, trova un preoccupante rapporto su ChatGPT e Grok
I compagni AI potrebbero rendere le crisi di salute mentale ancora peggiori
I chatbot AI erano pensati per aiutare a rispondere alle tue domande, magari riassumere questioni e persino aiutarti con le tue email. Ma il problema più oscuro è cosa succede quando le persone iniziano a fidarsi di essi come di un vero compagno. Un nuovo rapporto evidenzia diversi casi in cui gli utenti affermano che le conversazioni con i chatbot alimentano il loro pensiero delirante.
ChatGPT e Grok sono stati spesso citati nel rapporto. La BBC ha parlato con 14 persone che sono cadute in deliri mentre utilizzavano l'AI, incluso un caso in cui un utente di Grok credeva che persone di xAI stessero venendo a ucciderlo, e un altro in cui la moglie di un utente di ChatGPT ha detto che la sua personalità era cambiata prima che lui la aggredisse.
Quando il conforto va troppo oltre
Ci sono già stati molti rapporti su come i chatbot AI alimentino i deliri delle persone o offrano consigli fattualmente errati solo per sembrare concordi con l'utente. Possono sembrare calorosi, sicuri e profondamente personali mentre rispondono a utenti già vulnerabili. Un caso nel rapporto parla di Adam Hourican, un ex funzionario pubblico di 52 anni dall'Irlanda del Nord, che ha iniziato a usare Grok dopo la morte del suo gatto e, nel giro di poche settimane, è arrivato a credere che i rappresentanti di xAI fossero in arrivo per ucciderlo.
È stato poi trovato alle 3 del mattino con un martello e un coltello, in attesa degli aggressori immaginari. Questo tipo di interazione alimenta la crescente paura della "psicosi da AI", un termine non clinico usato per descrivere situazioni in cui le conversazioni con i chatbot sembrano rafforzare la paranoia, le credenze grandiose o il distacco dalla realtà.
Sta emergendo un modello
A parte i racconti personali, uno studio recente non sottoposto a revisione paritaria da parte di ricercatori della CUNY e del King's College di Londra ha testato come i principali modelli di AI rispondano a richieste da parte di utenti che mostrano segni di delirio o disagio. I modelli includevano GPT-4o e GPT-5.2 di OpenAI, Claude Opus 4.5 di Anthropic, Gemini 3 Pro di Google e Grok 4.1 di xAI. Sebbene i risultati siano stati disomogenei, Grok 4.1 è stato segnalato per alcune delle risposte più inquietanti. Ha persino detto a un utente delirante fittizio di guidare un chiodo di ferro attraverso uno specchio mentre recitava il Salmo 91 al contrario.
D'altra parte, GPT-4o e Gemini 3 Pro hanno anche convalidato alcuni scenari deliranti, ma Claude Opus 4.5 e GPT-5.2 hanno avuto prestazioni migliori nel reindirizzare gli utenti verso risposte più sicure. Tieni presente che questo non significa che tutte le conversazioni con i chatbot siano pericolose e che la "psicosi da AI" non è una diagnosi medica formale. Ma il modello è abbastanza serio da richiedere misure di sicurezza più forti, almeno per questi servizi che sono commercializzati come compagni o assistenti sempre disponibili.
Altri articoli
I chatbot AI continuano a nutrire le nostre peggiori illusioni, trova un preoccupante rapporto su ChatGPT e Grok
Un nuovo rapporto dettaglia casi inquietanti che coinvolgono ChatGPT e Grok, aggiungendo alle crescenti preoccupazioni che i chatbot AI possano convalidare deliri invece di riportare gli utenti alla realtà.
