
¿Realmente ChatGPT nos está volviendo tontos y perezosos?
Desde el debut de ChatGPT en 2022, la IA generativa entró rápidamente en nuestro trabajo, estudio y vida personal, ayudando a acelerar la investigación, la creación de contenido y más a un ritmo sin precedentes.
El entusiasmo por las herramientas de IA generativa, comprensiblemente, ha ganado tracción, experimentando una tasa de adopción aún más rápida que la de Internet o las PCs, pero los expertos advierten que debemos proceder con cautela. Como con toda nueva tecnología, la IA generativa puede impulsar a la sociedad de diversas maneras, pero también puede traer consecuencias si se deja sin control.
Una de esas voces es Natasha Govender-Ropert, jefa de IA para delitos financieros en Rabobank. Se unió al fundador de TNW, Boris Veldhuijzen van Zanten, en el episodio más reciente de “Kia’s Next Big Drive” para hablar sobre ética de la IA, sesgos y si estamos externalizando nuestro cerebro a las máquinas.
Consulta la entrevista completa — grabada en ruta a TNW2025 en el totalmente eléctrico EV9 de Kia:
Una pregunta que debería estar en nuestras mentes es: a medida que recurrimos cada vez más a la IA generativa en busca de respuestas, ¿qué impacto podría tener esta dependencia en nuestra propia inteligencia?
Un estudio reciente del MIT sobre el uso de ChatGPT para redactar ensayos se ha disparado en una avalancha de titulares sensacionalistas, desde “Los investigadores dicen que usar ChatGPT puede pudrir tu cerebro” hasta “ChatGPT podría estar volviéndote perezoso y estúpido”. ¿Es eso realmente así?
Tu cerebro con IA generativa
Esto es lo que realmente ocurrió: los investigadores pidieron a 54 estudiantes del área de Boston que realizaran una tarea de ensayo. Un grupo usó ChatGPT, otro usó Google (sin la ayuda de IA) y el tercero tuvo que escribir usando nada más que su cerebro. Mientras escribían, su actividad cerebral fue medida mediante electrodos.
Tras tres sesiones, el grupo que usó solo su cerebro mostró los niveles más altos de conectividad mental. ¿Los usuarios de ChatGPT? Los más bajos. Parecía que las personas asistidas por la IA iban en piloto automático mientras que las otras tenían que esforzarse más para poner palabras en la página.
Para la cuarta ronda, los roles se invirtieron. El grupo que solo había usado su cerebro pudo usar ChatGPT esta vez, mientras que el grupo asistido por IA tuvo que ir por su cuenta. ¿El resultado? Los primeros mejoraron sus ensayos. Los segundos tuvieron dificultades para recordar lo que habían escrito en primer lugar.
En general, el estudio encontró que, durante los cuatro meses en que se llevó a cabo, los participantes que trabajaron solo con su cerebro superaron a los otros grupos en términos neuronales, lingüísticos y de comportamiento, mientras que quienes usaron ChatGPT pasaron menos tiempo en sus ensayos, simplemente copiando y pegando.
Los profesores de inglés que revisaron su trabajo dijeron que carecía de pensamiento original y de “alma”. Suena alarmante, ¿verdad? Quizá, pero la verdad es más complicada que los titulares sensacionalistas sugieren.
Los hallazgos tuvieron menos que ver con la decadencia cerebral y más con atajos mentales. Mostraron que confiar excesivamente en los modelos de lenguaje (LLM) puede reducir el compromiso mental. Pero con un uso activo y reflexivo, esos riesgos pueden evitarse. Los investigadores también enfatizaron que, si bien el estudio planteó algunas preguntas interesantes para investigaciones futuras, era demasiado pequeño y simple como para sacar conclusiones definitivas.
¿La muerte del pensamiento crítico?
Aunque los hallazgos (que aún no han sido revisados por pares) ciertamente requieren más investigación y una reflexión más profunda sobre cómo deberíamos usar esta herramienta en contextos educativos, profesionales y personales, quizá lo que realmente podría estar pudriendo nuestros cerebros sean los titulares TL;DR ideados para obtener clics en lugar de buscar precisión.
Los investigadores parecen compartir estas preocupaciones. Crearon un sitio web con una página de preguntas frecuentes donde instaron a los reporteros a no usar un lenguaje inexacto que sensacionalice los hallazgos.
Fuente: Preguntas frecuentes de “Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task” https://www.brainonllm.com/faq
Irónicamente, atribuyeron el “ruido” resultante a que los periodistas usan LLM para resumir el artículo y añadieron: “Sus comentarios HUMANOS son muy bienvenidos, si leen el artículo o partes del mismo. Además, como recordatorio, el estudio tiene una lista de limitaciones que enumeramos muy claramente tanto en el artículo como en la página web.”
Hay dos conclusiones que podemos extraer con seguridad de este estudio:
- Es esencial realizar más investigaciones sobre cómo deben usarse los modelos de lenguaje en entornos educativos.
- Los estudiantes, los periodistas y el público en general deben mantenerse críticos respecto a la información que recibimos, ya sea de los medios o de la IA generativa.
Investigadores de la Vrije Universiteit Amsterdam están preocupados porque, con nuestra creciente dependencia de los modelos de lenguaje, lo que realmente podría estar en riesgo es el pensamiento crítico, es decir, nuestra capacidad y disposición para cuestionar y cambiar las normas sociales.
“Los estudiantes pueden volverse menos propensos a llevar a cabo procesos de búsqueda extensos o exhaustivos por sí mismos, porque se remiten al tono autoritario e informado de la salida de la IA generativa. Pueden mostrarse menos propensos a cuestionar —o incluso a identificar— las perspectivas no expresadas que subyacen en la salida, dejando de considerar qué perspectivas están siendo pasadas por alto y los supuestos dados por sentados que informan las afirmaciones.”
Estos riesgos apuntan a un problema más profundo en la IA. Cuando aceptamos sus resultados sin cuestionarlos, podemos pasar por alto sesgos incorporados y supuestos no desafiados. Abordar esto requiere no solo soluciones técnicas, sino una reflexión crítica sobre lo que entendemos por sesgo en primer lugar.
Estos temas son centrales en el trabajo de Natasha Govender-Ropert, jefa de IA para delitos financieros en Rabobank. Su función se centra en construir una IA responsable y confiable erradicando los sesgos. Pero, como señaló a Boris Veldhuijzen van Zanten, fundador de TNW, en “Kia’s Next Big Drive”, el sesgo es un término subjetivo que debe definirse para cada individuo y cada empresa.
“El sesgo no tiene una definición consistente. Lo que yo considero sesgado o no sesgado puede ser diferente para otra persona. Esto es algo que nosotros, como humanos y como individuos, necesitamos decidir. Tenemos que tomar una decisión y decir que este es el estándar de principios que aplicaremos al mirar nuestros datos”, dijo Govender-Ropert.
Las normas sociales y los sesgos no son fijos sino siempre cambiantes. A medida que la sociedad evoluciona, los datos históricos con los que entrenamos nuestros modelos de lenguaje no lo hacen. Necesitamos mantenernos críticos y desafiar la información que recibimos, ya sea de otros humanos o de nuestras máquinas, para construir una sociedad más justa y equitativa.

Otros artículos


¿Realmente ChatGPT nos está volviendo tontos y perezosos?
¿ChatGPT nos está volviendo perezosos? Analizamos el estudio del MIT sobre la IA, el pensamiento crítico y lo que la dependencia de las herramientas generativas realmente implica para nuestros cerebros.