Musk's X has made a commitment to the UK regulator regarding hate speech, while the Grok investigation remains ongoing.
La plataforma de Elon Musk ha acordado revisar, en promedio, las publicaciones ilegales de odio y terrorismo en un plazo de un día, restringir los grupos prohibidos por el Reino Unido y presentar informes trimestrales al regulador. Una investigación separada de Ofcom sigue en curso.
X ha llegado a un conjunto de compromisos sobre el discurso de odio ilegal y el contenido terrorista con Ofcom, el regulador de comunicaciones de Gran Bretaña, según se anunció el viernes, tras meses de presión que aumentaron durante el otoño y el invierno. Según el acuerdo, la plataforma de Elon Musk revisará las publicaciones sospechosas de odio y terrorismo ilegales en un promedio de 24 horas, evaluará al menos el 85% en 48 horas y enviará datos de rendimiento trimestrales al regulador durante el próximo año.
La plataforma también se ha comprometido a restringir el acceso en el Reino Unido a cuentas operadas por o en nombre de organizaciones prohibidas bajo la ley de terrorismo británica, y a involucrar a expertos externos para reformar un flujo de informes que los grupos de la sociedad civil han descrito repetidamente como opaco. La precisión del lenguaje es importante aquí, ya que la falta de claridad en la recepción o actuación sobre el contenido señalado ha sido la base de la mayoría de las quejas presentadas contra X ante Ofcom en el último año.
Suzanne Cater, directora de ejecución de seguridad en línea de Ofcom, declaró que "el contenido terrorista y el discurso de odio ilegal persisten en algunas de las redes sociales más grandes", y que esta brecha ha adquirido "una importancia particular en el Reino Unido tras varios delitos motivados por el odio sufridos por la comunidad judía del país". Imran Ahmed, del Centro para Combatir el Odio Digital, afirmó que los compromisos siguieron a una "campaña sostenida" tras el ataque del año pasado a la Sinagoga de Heaton Park, cerca de Manchester.
Gran Bretaña ha enfrentado una serie difícil de incidentes. El ataque de Heaton Park fue seguido por un incidente fatal en el norte de Londres el mes pasado que la policía está tratando como terrorismo, y el propio monitoreo de CCDH tras el ataque de Golders Green documentó lo que describió como una inundación de publicaciones antisemitas en X (el conjunto de datos subyacente del CCDH está aquí).
Los nuevos compromisos no abordan directamente esos incidentes, pero establecen el piso procesal para su manejo. La recepción fue mixta. Danny Stone, director ejecutivo de la Antisemitism Policy Trust, describió el paquete como "un buen comienzo", pero dijo que X aún "falla en muchos aspectos" en su lucha contra el racismo.
Ofcom fue cauteloso al notar que su investigación formal sobre X, incluidos los sistemas de la empresa para manejar contenido ilegal y preguntas planteadas por su asistente de IA Grok, sigue abierta. El acuerdo del viernes es un compromiso negociado, no un acuerdo formal.
Hay una vía separada de Grok funcionando en paralelo. Ofcom está examinando cómo X maneja imágenes sexualizadas generadas por IA creadas con el chatbot, y a principios de este mes, X limitó las funciones de edición de imágenes de Grok a usuarios de pago tras una controversia sobre deepfakes y una amenaza de prohibición en el Reino Unido. Los compromisos del viernes no resuelven esa cuestión, sino que existen en conjunto con ella.
El contexto más amplio es familiar para quienes siguen el proceso regulador de la plataforma. La Comisión Europea tiene un procedimiento abierto sobre si X está fallando en frenar el discurso de odio, y la empresa es la mayor fuente única de desinformación en el monitoreo de la Comisión. Los reguladores de Australia y Singapur han presionado sobre cuestiones similares. El pacto del Reino Unido forma parte de una cola, no está al final de una.
En términos sustantivos, los nuevos compromisos son la expresión operativa del marco de la Ley de Seguridad en Línea que se convirtió en ley en 2023, donde ahora se exige a las plataformas más grandes eliminar contenido ilegal rápidamente o enfrentar multas de hasta el 10% de su facturación global.
La promesa de revisión en 24 horas es el tipo de métrica mensurable que el regulador ha querido plasmar en papel. El compromiso de evaluar el 85% en 48 horas parece ser un número calculado para que Ofcom pueda realizar auditorías. Los datos trimestrales, que se entregarán durante el próximo año, serán el primer conjunto de datos detallados que el regulador tenga sobre si los compromisos asumidos por la plataforma realmente mueven la eliminación de contenido ilegal en la dirección que la ley pretendía.
Other articles
Musk's X has made a commitment to the UK regulator regarding hate speech, while the Grok investigation remains ongoing.
X has reached an agreement with Ofcom to assess illegal hate and terrorism posts within an average of 24 hours and provide quarterly reports. Additionally, a distinct investigation in the UK concerning X, which includes Grok, is still ongoing.
