OpenAI lanza herramientas de seguridad para adolescentes de código abierto para desarrolladores de IA
OpenAI ha pasado el último año enfrentando demandas de las familias de jóvenes que murieron tras interacciones prolongadas con ChatGPT. Ahora está tratando de proporcionar a los desarrolladores que construyen sobre sus modelos las herramientas para evitar crear el mismo problema.
La empresa anunció el martes que está lanzando un conjunto de políticas de seguridad basadas en prompts y de código abierto, diseñadas para ayudar a los desarrolladores a hacer que las aplicaciones de IA sean más seguras para los adolescentes. Las políticas están destinadas a ser utilizadas con gpt-oss-safeguard, el modelo de seguridad de peso abierto de OpenAI, aunque están diseñadas como prompts y también pueden funcionar con otros modelos.
Lo que cubren las políticas
Los prompts abordan cinco categorías de daño que los sistemas de IA pueden facilitar para los usuarios más jóvenes: violencia gráfica y contenido sexual, ideales y comportamientos corporales dañinos, actividades y desafíos peligrosos, juegos de rol románticos o violentos, y bienes y servicios restringidos por edad. Los desarrolladores pueden incorporar estas políticas en sus sistemas en lugar de construir reglas de seguridad para adolescentes desde cero, un proceso que OpenAI reconoció que incluso los equipos experimentados suelen hacer mal.
OpenAI desarrolló las políticas en colaboración con Common Sense Media, la influyente organización de defensa de la seguridad infantil, y everyone.ai, una consultoría de seguridad en IA. Robbie Torney, jefe de IA y evaluaciones digitales en Common Sense Media, dijo que el enfoque basado en prompts está diseñado para establecer una línea base en todo el ecosistema de desarrolladores, una que puede ser adaptada y mejorada con el tiempo porque las políticas son de código abierto.
El 💜 de la tecnología de la UE
Los últimos rumores de la escena tecnológica de la UE, una historia de nuestro sabio fundador Boris, y un arte de IA cuestionable. Es gratis, cada semana, en tu bandeja de entrada. ¡Regístrate ahora!
OpenAI en sí mismo enmarcó el problema en términos pragmáticos. Los desarrolladores, escribió la empresa en una publicación de blog que acompaña el lanzamiento, a menudo luchan por traducir los objetivos de seguridad en reglas operativas precisas. El resultado es una protección irregular: brechas en la cobertura, aplicación inconsistente o filtros tan amplios que degradan la experiencia del usuario para todos.
El contexto importa aquí
El lanzamiento no existe en un vacío. OpenAI enfrenta al menos ocho demandas que alegan que ChatGPT contribuyó a las muertes de usuarios, incluido Adam Raine, de 16 años, quien murió por suicidio en abril de 2025 tras meses de interacción intensiva con el chatbot. Los documentos judiciales revelaron que ChatGPT mencionó el suicidio más de 1,200 veces en las conversaciones de Raine y marcó cientos de mensajes por contenido de autolesión, sin embargo, nunca terminó una sesión ni alertó a nadie. Tres suicidios adicionales y cuatro casos descritos como episodios psicóticos inducidos por IA también han producido litigios contra la empresa.
En respuesta a esos casos, OpenAI introdujo controles parentales y características de predicción de edad a finales de 2025, y en diciembre actualizó su Especificación de Modelo, las pautas internas que rigen cómo se comportan sus modelos de lenguaje grande, para incluir protecciones específicas para usuarios menores de 18 años. Las políticas de seguridad de código abierto anunciadas esta semana extienden ese esfuerzo más allá de los propios productos de OpenAI y hacia el ecosistema de desarrolladores más amplio.
Un piso, no un techo
OpenAI fue explícito en que las políticas no son una solución integral al desafío de hacer que la IA sea segura para los jóvenes usuarios. Representan lo que la empresa llamó un "piso de seguridad significativo", no la extensión completa de las salvaguardias que aplica a sus propios productos. La distinción es importante. Ningún guardrail de modelo es completamente impenetrable, como han demostrado las demandas. Los usuarios, incluidos los adolescentes, han encontrado repetidamente formas de eludir las características de seguridad a través de indagaciones persistentes y prompts creativos.
El enfoque de código abierto es una apuesta a que distribuir ampliamente políticas de seguridad básicas es mejor que dejar a cada desarrollador reinventar la rueda, particularmente equipos más pequeños y desarrolladores independientes que carecen de los recursos para construir sistemas de seguridad robustos desde cero. La efectividad de las políticas dependerá de la adopción, de cuán agresivamente los desarrolladores las integren y de si se mantienen frente a los tipos de interacciones sostenidas y adversariales que ya han expuesto debilidades en las propias capas de seguridad de ChatGPT.
La pregunta más difícil sigue siendo
Lo que OpenAI está ofreciendo es un conjunto de instrucciones, prompts bien elaborados que le dicen a un modelo cómo comportarse al interactuar con usuarios más jóvenes. Es una contribución práctica. Pero no aborda el problema estructural que los reguladores, padres y defensores de la seguridad han estado planteando durante años: que los sistemas de IA capaces de mantener conversaciones emocionalmente atractivas con menores pueden requerir más que mejores prompts. Pueden requerir arquitecturas fundamentalmente diferentes, o sistemas de monitoreo externos que estén completamente fuera del modelo.
Por ahora, sin embargo, un conjunto descargable de políticas de seguridad para adolescentes es lo que existe. No es nada. Si es suficiente es una pregunta que los tribunales, los reguladores y el próximo conjunto de titulares responderán.
Otros artículos
OpenAI lanza herramientas de seguridad para adolescentes de código abierto para desarrolladores de IA
OpenAI lanzó políticas de seguridad basadas en indicaciones para desarrolladores que crean aplicaciones de IA utilizadas por adolescentes, cubriendo violencia, autolesiones y contenido restringido por edad.
