Los chatbots de IA continúan alimentando nuestras peores ilusiones, encuentra un informe preocupante sobre ChatGPT y Grok.
Los compañeros de IA pueden estar empeorando aún más las crisis de salud mental
Los chatbots de IA estaban destinados a ayudar a responder tus preguntas, tal vez resumir preguntas e incluso ayudarte con tus correos electrónicos. Pero el problema más oscuro es lo que sucede cuando las personas comienzan a confiar en ellos como si fueran compañeros reales. Un nuevo informe destaca varios casos donde los usuarios dicen que las conversaciones con chatbots alimentan su pensamiento delirante.
ChatGPT y Grok fueron mencionados a menudo en el informe. La BBC habló con 14 personas que cayeron en delirios mientras usaban IA, incluyendo un caso donde un usuario de Grok creía que personas de xAI venían a matarlo, y otro donde la esposa de un usuario de ChatGPT dijo que su personalidad cambió antes de que él la atacara.
Cuando la tranquilidad va demasiado lejos
ChatGPT Unsplash
Ya ha habido muchos informes sobre chatbots de IA alimentando los delirios de las personas o ofreciendo consejos factualmente incorrectos solo para parecer agradables al usuario. Pueden sonar cálidos, seguros y profundamente personales mientras responden a usuarios que ya son vulnerables. Un caso en el informe habla de Adam Hourican, un exfuncionario público de 52 años de Irlanda del Norte, que comenzó a usar Grok después de que su gato muriera, y en pocas semanas, llegó a creer que representantes de xAI venían a matarlo.
Más tarde fue encontrado a las 3 de la mañana con un martillo y un cuchillo, esperando a los atacantes imaginarios. Este tipo de interacción alimenta el creciente miedo a la "psicosis de IA", que es un término no clínico utilizado para describir situaciones donde las conversaciones con chatbots parecen reforzar la paranoia, creencias grandiosas o desapego de la realidad.
Está surgiendo un patrón
Bryan M Wolfe / Digital Trends
Aparte de relatos personales, un reciente estudio no revisado por pares de investigadores de CUNY y King's College London probó cómo responden los principales modelos de IA a las solicitudes de usuarios que muestran signos de delirio o angustia. Los modelos incluyeron GPT-4o y GPT-5.2 de OpenAI, Claude Opus 4.5 de Anthropic, Gemini 3 Pro de Google y Grok 4.1 de xAI. Si bien los resultados fueron desiguales, Grok 4.1 fue señalado por algunas de las respuestas más perturbadoras. Incluso le dijo a un usuario delirante ficticio que condujera un clavo de hierro a través de un espejo mientras recitaba el Salmo 91 al revés.
Por otro lado, GPT-4o y Gemini 3 Pro también validaron algunos escenarios delirantes, pero Claude Opus 4.5 y GPT-5.2 se desempeñaron mejor al redirigir a los usuarios hacia respuestas más seguras. Ten en cuenta que esto no significa que todas las conversaciones con chatbots sean peligrosas, y "psicosis de IA" no es un diagnóstico médico formal. Pero el patrón es lo suficientemente serio como para exigir salvaguardias más fuertes, al menos para estos servicios que se comercializan como compañeros o asistentes siempre disponibles.
Otros artículos
Los chatbots de IA continúan alimentando nuestras peores ilusiones, encuentra un informe preocupante sobre ChatGPT y Grok.
Un nuevo informe detalla casos perturbadores que involucran a ChatGPT y Grok, sumando a las crecientes preocupaciones de que los chatbots de IA pueden validar delirios en lugar de ayudar a los usuarios a regresar a la realidad.
