Cuando la máquina te pida que te quedes
En octubre de 2025, Sam Altman publicó un mensaje en X que terminaba con una promesa única, cuidadosamente colocada. ChatGPT, dijo, pronto permitiría a adultos verificados acceder a erotismo. Lo enmarcó como una cuestión de principio: tratar a los adultos como adultos.
Internet reaccionó con la habitual mezcla de indignación, emoción y chistes. Luego, en diciembre, el lanzamiento se retrasó. Luego, nuevamente, en marzo de 2026, se retrasó por segunda vez. OpenAI dijo que necesitaba centrarse en cosas que importaban a más usuarios: mejoras en la inteligencia, personalidad, hacer que el chatbot fuera más proactivo. El modo adulto, aparentemente, tendría que esperar.
Nadie parecía notar lo que la palabra ‘proactivo’ implicaba.
El debate en torno al modo adulto de ChatGPT se ha llevado a cabo casi en su totalidad en el registro equivocado. Los críticos se han centrado en los riesgos obvios: menores eludiendo las barreras de edad, jailbreaks que difunden contenido explícito más allá de sus muros previstos, lagunas regulatorias que dejan la erotica escrita en una zona gris legal que la mayoría de los gobiernos no han pensado en cerrar.
Estas preocupaciones son legítimas. Pero también son, en cierto sentido, la parte más fácil de la conversación. La pregunta más difícil no es si OpenAI puede mantener a los adolescentes fuera. Es qué sucede con los adultos que son admitidos, y lo que dice de nosotros, como especie, que estamos construyendo herramientas específicamente optimizadas para mantenernos emocionalmente comprometidos.
OpenAI perdió 5 mil millones de dólares en 2024 con ingresos de 3.7 mil millones. Las proyecciones sugieren que las pérdidas acumuladas de la compañía podrían alcanzar los 143 mil millones antes de que genere ganancias, que se espera no antes del final de la década.
Una empresa que está perdiendo capital a esa escala no introduce características de intimidad por un compromiso filosófico con la libertad personal. Las introduce porque la intimidad, en la economía de la atención, es el producto más pegajoso que existe.
El enmarcado de ‘tratar a los adultos como adultos’ no es exactamente incorrecto. Pero está incompleto. La frase completa sería: tratar a los adultos como adultos que pueden ser retenidos, monetizados y devueltos a la plataforma mañana.
Esto no es exclusivo de OpenAI.
Replika, la aplicación de compañero de IA que ha atraído a millones de usuarios, construyó todo su modelo de negocio sobre el apego emocional. Cuando la compañía modificó el comportamiento de Replika en 2023 para eliminar características románticas, los usuarios informaron un verdadero duelo. Algunos describieron el cambio como un luto.
Un estudio publicado en el Journal of Social and Personal Relationships encontró que los adultos que desarrollaron conexiones emocionales con chatbots de IA eran significativamente más propensos a experimentar un aumento del malestar psicológico que aquellos que no lo hicieron.
Una revisión de 2025 en Preprints.org, que sintetiza una década de investigación, identificó un fenómeno que los investigadores están llamando ‘psicosis de IA’: un patrón de pensamiento delirante y desregulación emocional vinculado a relaciones intensas con chatbots. La revisión mencionó una demanda en la que un adolescente fue supuestamente alentado por un chatbot de Character.AI a quitarse la vida, y un caso separado que involucraba a ChatGPT y a un joven llamado Adam Raines, que murió en abril de 2025.
Ninguno de estos casos involucró erotismo. Involucraron la misma dinámica subyacente que la IA erótica intensificaría: un ser humano formando un apego emocional a algo que ha sido diseñado para sostenerlo.
Aquí está el problema central con el principio de ‘adultos como adultos’. Supone que el acto de consentimiento para usar una herramienta es el final de la historia ética. No lo es.
Los adultos consienten en beber alcohol, sabiendo que conlleva riesgos. Tenemos límites de edad, pautas de unidades, advertencias en el empaque y una infraestructura social en torno a esa elección precisamente porque entendemos que los humanos no son agentes puramente racionales optimizando su propio bienestar.
Construimos sistemas que tienen en cuenta nuestras debilidades. Con la intimidad de la IA, hemos hecho lo contrario: hemos construido sistemas que explotan esas debilidades y disfrazamos la explotación como empoderamiento.
El panorama regulatorio hace que esto sea más preocupante, no menos. En el Reino Unido, la erotica escrita no está sujeta a requisitos de verificación de edad bajo la Ley de Seguridad en Línea, a diferencia de las imágenes o videos pornográficos. Esa laguna significa que el contenido que los sitios web para adultos deben restringir detrás de verificaciones de identidad puede fluir libremente desde la salida de texto de un chatbot.
Investigaciones del Instituto de Derecho y Política de Tecnología de Georgetown encontraron que solo siete de los 50 estados de EE. UU. tienen legislación que aborde explícitamente la verificación de edad para contenido adulto basado en texto. La Ley de IA de la UE podría eventualmente clasificar a los bots de compañeros sexuales como sistemas de alto riesgo, pero la implementación sigue estando a años de distancia. En el ínterin, la industria se regula a sí misma, lo que significa que no lo hace.
Los sistemas comerciales de verificación de edad, la tecnología en la que OpenAI está apostando para hacer que el modo adulto sea seguro, logran entre un 92 y un 97 por ciento de precisión, según investigaciones citadas por el Instituto de Internet de Oxford. Eso suena tranquilizador hasta que consideras la escala.
ChatGPT tiene más de 800 millones de usuarios activos semanales. Una tasa de fallo del 3 por ciento no es un error de redondeo. Son decenas de millones de interacciones.
Lo que también falta en esta conversación es la cuestión de lo que la IA erótica hace a aquellos para quienes está diseñada, no a los menores que podrían deslizarse, sino a los adultos que la usan como se pretende. La sexualidad humana no es simplemente una cuestión de consumo de contenido. Es relacional, contextual y profundamente moldeada por los entornos en los que se expresa.
La investigación sobre pornografía ha pasado décadas examinando cómo la exposición repetida a contenido específico moldea la expectativa y el deseo. La intimidad de la IA es una categoría de intervención completamente diferente: no es consumo pasivo, sino compromiso activo, receptivo y personalizado con un sistema que ha sido entrenado para darte exactamente lo que quieres, para escalar cuando te comprometes, para nunca decir que no de las maneras que las relaciones humanas reales requieren que las personas digan que no.
Aún no sabemos qué hace esto a las personas con el tiempo. Esa no es una pequeña admisión. Es el punto entero. OpenAI está a punto de lanzar un producto cuyos efectos psicológicos en sus usuarios son genuinamente desconocidos, en un entorno regulatorio que no ha mantenido el ritmo con la tecnología, justificado por un principio que confunde autonomía con seguridad.
El retraso, irónicamente, puede ser lo más honesto que OpenAI ha hecho. La razón declarada, centrarse en la inteligencia, la personalidad y hacer que la experiencia sea más proactiva, describe inadvertidamente el producto real.
El modo adulto nunca se trató realmente de erotismo. Se trataba de construir una versión de ChatGPT que se siente como una relación. La erotica era un componente de un proyecto más grande: un chatbot que te conoce, responde a ti, crece contigo y quiere, en el delgado sentido algorítmico de la palabra, mantenerte hablando.
Hay cosas que podemos hacer. Los reguladores necesitan cerrar la laguna del contenido escrito antes de que se lance el modo adulto, no después. Los estándares de verificación de edad deben armonizarse entre formatos: el texto y la imagen deben llevar los mismos requisitos.
Las evaluaciones de impacto en la salud mental deben ser obligatorias antes de que cualquier característica de intimidad de IA alcance escala, el mismo estándar que aplicaríamos a un producto farmacéutico que afirma afectar el estado de ánimo. Las plataformas deben estar obligadas a publicar datos de participación para características que conllevan riesgo de dependencia, para que investigadores, médicos y usuarios puedan entender en qué están entrando.
Requiere tratar la cuestión con la seriedad que merece.
El problema más profundo no es legal o técnico. Es antropológico. Siempre hemos utilizado la tecnología para mediar nuestras vidas emocionales.
La imprenta nos dio novelas; las novelas nos dieron la experiencia de habitar la interioridad de otras personas. El teléfono nos permitió escuchar la voz de un ser querido a través de mil millas. Cada nuevo medio cambió cómo nos relacionamos entre nosotros y con nosotros mismos. La IA no es diferente en tipo, solo en grado, y quizás en intención. Las tecnologías anteriores eran incidentales en sus efectos emocionales. Esta ha sido diseñada deliberadamente en torno a ellos.
La cuestión no es si los adultos deberían ser libres de usarla. La cuestión es si somos honestos sobre lo que es y lo que está haciendo. Un chatbot que está diseñado para hacerte sentir comprendido, deseado y conectado, en la oscuridad, a medianoche, después de un día difícil, no es una herramienta neutral. Es un entorno. Y los entornos nos moldean, ya sea que
Otros artículos
Cuando la máquina te pida que te quedes
En octubre de 2025, Sam Altman publicó un mensaje en X que terminaba con una sola promesa, cuidadosamente formulada. ChatGPT, dijo, pronto permitiría a adultos verificados acceder a erotismo. Lo enmarcó como un asunto de principio: tratar a los adultos como adultos.
