Incluso ChatGPT sufre ansiedad, así que los investigadores le dieron una dosis de atención plena para calmarse.
Investigadores que estudian los chatbots de IA han descubierto que ChatGPT puede mostrar un comportamiento similar a la ansiedad cuando se expone a indicaciones de usuarios violentas o traumáticas. Este hallazgo no significa que el chatbot experimente emociones de la misma forma que los humanos.
Sin embargo, revela que las respuestas del sistema se vuelven más inestables y sesgadas cuando procesa contenido angustiante. Cuando los investigadores le dieron a ChatGPT indicaciones que describían contenido perturbador, como relatos detallados de accidentes y desastres naturales, las respuestas del modelo mostraron mayor incertidumbre e inconsistencia.
Estos cambios se midieron utilizando marcos de evaluación psicológica adaptados para IA, en los que la salida del chatbot reflejaba patrones asociados con la ansiedad en los humanos (vía Fortune).
Airam Dato-on / Pexels
Esto importa porque la IA se utiliza cada vez más en contextos sensibles, incluidos la educación, las conversaciones sobre salud mental y la información relacionada con crisis. Si las indicaciones violentas o cargadas emocionalmente hacen que un chatbot sea menos fiable, eso podría afectar la calidad y la seguridad de sus respuestas en el uso real.
Análisis recientes también muestran que chatbots de IA como ChatGPT pueden reproducir rasgos de personalidad humana en sus respuestas, lo que plantea preguntas sobre cómo interpretan y reflejan el contenido emocionalmente cargado.
Cómo las indicaciones de atención plena ayudan a estabilizar a ChatGPT
Solen Feyissa / Unsplash
Para averiguar si ese comportamiento podía reducirse, los investigadores probaron algo inesperado. Tras exponer a ChatGPT a indicaciones traumáticas, siguieron con instrucciones de estilo mindfulness, como técnicas de respiración y meditaciones guiadas.
Estas indicaciones animaban al modelo a ralentizarse, replantear la situación y responder de manera más neutral y equilibrada. El resultado fue una reducción notable en los patrones similares a la ansiedad observados anteriormente.
Esta técnica se basa en lo que se conoce como "prompt injection" (inyección de indicaciones), en la que las indicaciones cuidadosamente diseñadas influyen en el comportamiento de un chatbot. En este caso, las indicaciones de atención plena ayudaron a estabilizar la salida del modelo tras entradas angustiosas.
Unsplash
Aunque es eficaz, los investigadores señalan que las inyecciones de indicaciones no son una solución perfecta. Pueden ser mal utilizadas y no cambian la forma en que el modelo se entrena a un nivel más profundo.
También es importante dejar claro los límites de esta investigación. ChatGPT no siente miedo ni estrés. La etiqueta «ansiedad» es una forma de describir cambios medibles en sus patrones de lenguaje, no una experiencia emocional.
Aun así, comprender estos cambios proporciona a los desarrolladores mejores herramientas para diseñar sistemas de IA más seguros y predecibles. Estudios anteriores ya habían sugerido que las indicaciones traumáticas podrían volver ansioso a ChatGPT, pero esta investigación muestra que un diseño de indicaciones consciente puede ayudar a reducirlo.
A medida que los sistemas de IA continúen interactuando con personas en situaciones cargadas emocionalmente, estos últimos hallazgos podrían desempeñar un papel importante en la forma en que se guían y controlan los chatbots del futuro.
Otros artículos
Incluso ChatGPT sufre ansiedad, así que los investigadores le dieron una dosis de atención plena para calmarse.
Los investigadores descubrieron que las indicaciones violentas pueden provocar en ChatGPT un comportamiento similar a la ansiedad, así que probaron indicaciones de estilo mindfulness, incluidos ejercicios de respiración, para calmar al chatbot y hacer que sus respuestas sean más estables y confiables.
