Incluso ChatGPT sufre ansiedad, así que los investigadores le dieron una dosis de atención plena para calmarse.

Incluso ChatGPT sufre ansiedad, así que los investigadores le dieron una dosis de atención plena para calmarse.

      Investigadores que estudian los chatbots de IA han descubierto que ChatGPT puede mostrar un comportamiento similar a la ansiedad cuando se expone a indicaciones de usuarios violentas o traumáticas. Este hallazgo no significa que el chatbot experimente emociones de la misma forma que los humanos.

      Sin embargo, revela que las respuestas del sistema se vuelven más inestables y sesgadas cuando procesa contenido angustiante. Cuando los investigadores le dieron a ChatGPT indicaciones que describían contenido perturbador, como relatos detallados de accidentes y desastres naturales, las respuestas del modelo mostraron mayor incertidumbre e inconsistencia.

      Estos cambios se midieron utilizando marcos de evaluación psicológica adaptados para IA, en los que la salida del chatbot reflejaba patrones asociados con la ansiedad en los humanos (vía Fortune).

      Airam Dato-on / Pexels

      Esto importa porque la IA se utiliza cada vez más en contextos sensibles, incluidos la educación, las conversaciones sobre salud mental y la información relacionada con crisis. Si las indicaciones violentas o cargadas emocionalmente hacen que un chatbot sea menos fiable, eso podría afectar la calidad y la seguridad de sus respuestas en el uso real.

      Análisis recientes también muestran que chatbots de IA como ChatGPT pueden reproducir rasgos de personalidad humana en sus respuestas, lo que plantea preguntas sobre cómo interpretan y reflejan el contenido emocionalmente cargado.

      Cómo las indicaciones de atención plena ayudan a estabilizar a ChatGPT

      Solen Feyissa / Unsplash

      Para averiguar si ese comportamiento podía reducirse, los investigadores probaron algo inesperado. Tras exponer a ChatGPT a indicaciones traumáticas, siguieron con instrucciones de estilo mindfulness, como técnicas de respiración y meditaciones guiadas.

      Estas indicaciones animaban al modelo a ralentizarse, replantear la situación y responder de manera más neutral y equilibrada. El resultado fue una reducción notable en los patrones similares a la ansiedad observados anteriormente.

      Esta técnica se basa en lo que se conoce como "prompt injection" (inyección de indicaciones), en la que las indicaciones cuidadosamente diseñadas influyen en el comportamiento de un chatbot. En este caso, las indicaciones de atención plena ayudaron a estabilizar la salida del modelo tras entradas angustiosas.

      Unsplash

      Aunque es eficaz, los investigadores señalan que las inyecciones de indicaciones no son una solución perfecta. Pueden ser mal utilizadas y no cambian la forma en que el modelo se entrena a un nivel más profundo.

      También es importante dejar claro los límites de esta investigación. ChatGPT no siente miedo ni estrés. La etiqueta «ansiedad» es una forma de describir cambios medibles en sus patrones de lenguaje, no una experiencia emocional.

      Aun así, comprender estos cambios proporciona a los desarrolladores mejores herramientas para diseñar sistemas de IA más seguros y predecibles. Estudios anteriores ya habían sugerido que las indicaciones traumáticas podrían volver ansioso a ChatGPT, pero esta investigación muestra que un diseño de indicaciones consciente puede ayudar a reducirlo.

      A medida que los sistemas de IA continúen interactuando con personas en situaciones cargadas emocionalmente, estos últimos hallazgos podrían desempeñar un papel importante en la forma en que se guían y controlan los chatbots del futuro.

Incluso ChatGPT sufre ansiedad, así que los investigadores le dieron una dosis de atención plena para calmarse. Incluso ChatGPT sufre ansiedad, así que los investigadores le dieron una dosis de atención plena para calmarse. Incluso ChatGPT sufre ansiedad, así que los investigadores le dieron una dosis de atención plena para calmarse.

Otros artículos

Las siete empresas chinas a tener en cuenta más allá de 2025, desde drones hasta videojuegos Las siete empresas chinas a tener en cuenta más allá de 2025, desde drones hasta videojuegos Al mirar atrás en 2025, preferiría centrarme en un grupo de empresas chinas que he seguido durante años y en las que creo sinceramente. Puede que no se sitúen en el Se filtra la línea de HP para el CES 2026, revelando EliteBook, OmniBook y PCs OMEN con IA. Se filtra la línea de HP para el CES 2026, revelando EliteBook, OmniBook y PCs OMEN con IA. Se han filtrado los planes de HP para el CES 2026, que muestran una gran apuesta por PCs con IA en los portátiles empresariales EliteBook, los sistemas de consumo OmniBook, el hardware para juegos OMEN, los Chromebooks y los accesorios. Así es como Samsung planea monitorizar la salud cerebral usando sus dispositivos. Así es como Samsung planea monitorizar la salud cerebral usando sus dispositivos. Samsung planea presentar una función de salud cerebral en el CES 2026 que utiliza datos de dispositivos portátiles y teléfonos inteligentes para señalar indicadores tempranos de demencia y sugerir acciones preventivas. La visión de Govee para la iluminación inteligente trasciende la mera iluminación. La visión de Govee para la iluminación inteligente trasciende la mera iluminación. La presentación de Govee en el CES 2026 sugiere un futuro en el que la iluminación inteligente se adapta al estado de ánimo, a la rutina y al bienestar, no solo a los horarios y a los comandos. Usted preguntó: Mini LED frente a OLED y consejos para gastar en televisores inteligentes Usted preguntó: Mini LED frente a OLED y consejos para gastar en televisores inteligentes ¿Merece la pena Mini LED por el ahorro frente a OLED? Este episodio de You Asked desglosa opciones más inteligentes para comprar televisores, los conceptos básicos del cable eARC y qué nueva tecnología televisiva hay que vigilar en el CES. Microsoft dejará de ofrecer soporte para Windows 11 SE en 2026. Microsoft dejará de ofrecer soporte para Windows 11 SE en 2026. Windows 11 SE, el sistema operativo de Microsoft orientado a la educación para aulas de K a 8, llegará al fin de su soporte en 2026, obligando a las escuelas a actualizar los dispositivos o a cambiar de plataforma.

Incluso ChatGPT sufre ansiedad, así que los investigadores le dieron una dosis de atención plena para calmarse.

Los investigadores descubrieron que las indicaciones violentas pueden provocar en ChatGPT un comportamiento similar a la ansiedad, así que probaron indicaciones de estilo mindfulness, incluidos ejercicios de respiración, para calmar al chatbot y hacer que sus respuestas sean más estables y confiables.