La IA nos está haciendo más rápidos, más productivos y peores para pensar.
La IA está en todas partes, la presión para adoptarla es implacable y la evidencia de que nos está haciendo más inteligentes se está volviendo más delgada trimestre tras trimestre.
El Día de Año Nuevo de 2026, un programador llamado Steve Yegge lanzó una plataforma de código abierto llamada Gas Town. Permite a los usuarios orquestar enjambres de agentes de codificación de IA simultáneamente, ensamblando software a velocidades que ningún humano podría igualar.
Una de las primeras personas en probarla describió la experiencia en términos que no tenían nada que ver con la productividad. “Realmente hay demasiado sucediendo para que puedas comprenderlo razonablemente”, escribió. “Tuve una sensación palpable de estrés al verlo.”
Esa frase debería estar pegada en la pared de cada suite ejecutiva, cada sala de juntas de capital de riesgo y cada escenario principal de la CES donde la palabra “inteligencia” se lanza como confeti. Porque algo extraño está sucediendo en la relación entre los humanos y la tecnología que seguimos llamando inteligente.
Las máquinas están volviéndose más rápidas. Los humanos que interactúan con ellas están cada vez más agotados, más ansiosos y, por varias medidas, menos capaces de la única cosa que se suponía que la inteligencia debía mejorar: pensar con claridad.
La presión para adoptar la IA es ahora tan omnipresente que ha desarrollado su propio vocabulario de coerción.
Necesitas tener IA.
Necesitas usar IA.
Necesitas comprar IA.
Tus competidores ya la están usando.
Tus hijos se quedarán atrás sin ella.
El lenguaje no proviene de ingenieros que resuelven problemas en silencio. Proviene de llamadas de ganancias, lanzamientos de productos y publicaciones en LinkedIn escritas con la energía maníaca de personas que han confundido vender un producto con describir la realidad.
En enero de 2026, en el Foro Económico Mundial en Davos, el CEO de Microsoft, Satya Nadella, ofreció una frase tan reveladora que merece ser estudiada como un artefacto cultural. Advirtió que la IA corría el riesgo de perder su “permiso social” para consumir vastas cantidades de energía a menos que comenzara a ofrecer beneficios tangibles a la vida de las personas.
El marco era impactante: no se trataba de si la tecnología funciona, sino de si se puede mantener al público a bordo mientras la industria averigua si lo hace. Nadella llamó a la IA un “amplificador cognitivo”, ofreciendo “acceso a mentes infinitas.”
Un mes después, una encuesta de Circana a consumidores estadounidenses encontró que el 35 por ciento de ellos no quería IA en sus dispositivos en absoluto. La razón principal no era confusión o tecnofobia. Era más simple que eso. Dijeron que no la necesitaban.
La brecha entre la retórica y la evidencia se ha vuelto difícil de ignorar. En marzo de 2026, Goldman Sachs publicó un análisis de los datos de ganancias del cuarto trimestre y encontró, en palabras del economista senior Ronnie Walker, “ninguna relación significativa entre la productividad y la adopción de IA a nivel de toda la economía.”
El banco señaló que un récord del 70 por ciento de los equipos de gestión del S&P 500 habían discutido la IA en sus llamadas de ganancias. Solo el 10 por ciento había cuantificado su impacto en casos de uso específicos. Un uno por ciento había cuantificado su impacto en las ganancias. Mientras tanto, se esperaba que las cinco mayores empresas tecnológicas de EE. UU. gastaran colectivamente $667 mil millones en infraestructura de IA en 2026, un aumento del 62 por ciento respecto al año anterior.
La Oficina Nacional de Investigación Económica describió la situación como un “paradoja de productividad”: ganancias percibidas más grandes que las medidas.
Hay mejoras reales en la productividad, pero son notablemente estrechas. Goldman encontró una ganancia mediana de alrededor del 30 por ciento en dos áreas específicas: soporte al cliente y desarrollo de software. Fuera de esos dominios, la evidencia de una mejora amplia estaba, en la evaluación del banco, esencialmente ausente. La revolución prometida, por ahora, está ocurriendo en dos habitaciones de una casa muy grande.
Lo que está sucediendo en esas habitaciones, sin embargo, vale la pena examinarlo de cerca, porque incluso donde la IA entrega, parece que algo más se está rompiendo.
En febrero de 2026, investigadores de la Escuela de Negocios Haas de UC Berkeley publicaron hallazgos de un estudio de ocho meses realizado en una empresa tecnológica estadounidense de 200 personas. Encontraron que la IA no redujo las cargas de trabajo. Las intensificó. Las tareas se volvieron más rápidas, por lo que las expectativas aumentaron. Las expectativas aumentaron, por lo que el alcance se expandió. El alcance se expandió, por lo que los trabajadores asumieron responsabilidades que anteriormente pertenecían a otros roles. Los gerentes de producto comenzaron a escribir código. Los investigadores asumieron trabajos de ingeniería. Los límites de los roles se disolvieron porque las herramientas hicieron que pareciera posible, y luego llegó el agotamiento.
Me cansé solo de escribirlo.
Los investigadores identificaron un ciclo que llamaron “crecimiento de carga de trabajo”: una acumulación gradual de tareas que pasa desapercibida hasta que la fatiga cognitiva degrada la calidad de cada decisión.
Harvard Business Review le dio al fenómeno un nombre más contundente: “fritura cerebral por IA.” Un estudio del Boston Consulting Group de casi 1,500 trabajadores estadounidenses encontró que el 14 por ciento de aquellos que usaban herramientas de IA que requerían supervisión significativa informaron haberlo experimentado, una forma distinta de niebla mental caracterizada por dificultad para concentrarse, toma de decisiones más lenta y dolores de cabeza después de una interacción prolongada con la IA.
Los trabajadores más afectados no eran los escépticos o los rezagados. Eran los adoptantes entusiastas, aquellos que habían hecho exactamente lo que cada discurso principal les dijo que hicieran.
La distribución de este agotamiento no es aleatoria. El sesenta y dos por ciento de los asociados y el 61 por ciento de los trabajadores de nivel inicial informaron agotamiento relacionado con la IA, según el estudio de Harvard Business Review.
Entre los ejecutivos de nivel C, la cifra cayó al 38 por ciento. El patrón es consistente con lo que cualquiera que haya pasado tiempo en una organización podría haber predicho: las personas que toman las decisiones estratégicas sobre la adopción de IA no son las que gestionan sus resultados, corrigen sus errores y cambian entre sus herramientas ocho horas al día.
Todo esto plantea una pregunta que la industria preferiría evitar: ¿qué, exactamente, queremos decir cuando usamos la palabra “inteligencia”?
El término “inteligencia artificial” fue acuñado en 1956 en un taller en Dartmouth College, y ha estado haciendo un tipo particular de trabajo ideológico desde entonces. Al nombrar el campo en honor a una cualidad humana, sus fundadores hicieron un movimiento que fue tanto marketing como ciencia. Nos invitó a ver la computación como cognición, la coincidencia de patrones como comprensión, la velocidad como sabiduría.
Cada vez que un producto se describe como “inteligente”, toma prestado del peso emocional de una palabra que, durante la mayor parte de la historia humana, significó algo como la capacidad de juicio, reflexión y la habilidad de sentarse con la incertidumbre el tiempo suficiente para pensar con claridad sobre ella.
Eso no es lo que hacen estos sistemas. Lo que hacen, a menudo de manera brillante, es predicción estadística a una escala extraordinaria. Reconocen patrones en los datos, generan continuaciones plausibles de secuencias y optimizan para objetivos definidos por sus diseñadores.
Esto es genuinamente útil. No es inteligencia en el sentido que cualquier filósofo, psicólogo o, para el caso, cualquier persona reflexiva en la calle reconocería. La confusión entre los dos significados no es accidental. Es el motor de todo el proyecto comercial.
Aquí está la ironía más profunda: en la prisa por rodearnos de inteligencia artificial, parece que estamos erosionando las condiciones bajo las cuales opera la verdadera inteligencia humana. La inteligencia, la verdadera, requiere cosas que la economía de IA está destruyendo sistemáticamente: atención ininterrumpida, tolerancia a la ambigüedad, la disposición a sentarse con un problema antes de alcanzar una solución y el espacio cognitivo para dudar, reconsiderar y cambiar de opinión.
Investigadores de la London School of Economics argumentaron en un documento de febrero de 2026 que la urgencia fabricada en torno a la IA reduce el espacio para la deliberación democrática en sí misma, colapsando el futuro en una única inevitabilidad y dejando sin espacio para el lento, incierto, proceso distintivamente humano de decidir juntos lo que realmente queremos.
Hay algo casi cómico en la situación.
Hemos construido máquinas que pueden procesar lenguaje, generar imágenes y escribir código a una velocidad sobrehumana, y las personas que las usan están reportando niebla mental, dificultad para concentrarse y una creciente incapacidad para pensar.
Un gerente senior de ingeniería citado en el estudio de BCG describió cómo malabareaba múltiples herramientas de IA para sopesar decisiones técnicas, generar borradores y resumir información. El constante cambio y verificación creó lo que él llamó “desorden mental.” Su esfuerzo había cambiado de resolver el problema central a gestionar las herramientas
Otros artículos
La IA nos está haciendo más rápidos, más productivos y peores para pensar.
La IA está en todas partes, pero la evidencia de su valor es escasa, el agotamiento es real y la palabra "inteligencia" está haciendo más marketing que ciencia.
