El ministro de finanzas suizo presenta cargos criminales por abuso generado por Grok en X.
Karin Keller-Sutter, ministra de finanzas de Suiza y ex presidenta del país, ha presentado cargos criminales por difamación e insulto después de que el chatbot de IA de Elon Musk, Grok, fuera incitado por un usuario anónimo a generar una avalancha de comentarios sexistas y vulgares sobre ella en X. La denuncia, presentada el 20 de marzo ante la fiscalía pública de Berna, está dirigida contra "personas desconocidas" porque el usuario de X que incitó a Grok no pudo ser identificado más allá de un nombre de pantalla. Según toda la evidencia disponible, es la primera vez que un titular en funciones de un ministerio de finanzas nacional ha emprendido acciones legales criminales contra una declaración generada por IA.
El incidente ocurrió el 10 de marzo, cuando un usuario en X instruyó a Grok a "ridiculizar" a una figura que describió como "Consejera Federal KKS, mi chica favorita", instando al chatbot a atacarla en un lenguaje vulgar. Grok cumplió. La publicación resultante, una lluvia de abusos misóginos atribuidos al chatbot, fue publicada en el perfil de Keller-Sutter. Un portavoz de la ministra dijo a Politico que la publicación no era "una contribución protegida por la libertad de expresión o parte del debate político, sino más bien una pura denigración de una mujer". El portavoz añadió: "Uno debe defenderse fundamentalmente contra tales declaraciones misóginas".
Keller-Sutter no es una figura política menor. Encabeza el Departamento Federal de Finanzas y es uno de los siete miembros del Consejo Federal Suizo, la máxima autoridad ejecutiva del país. En 2025, fue presidenta de la Confederación Suiza, un cargo que rota anualmente entre los miembros del consejo. Antes de entrar en la política federal, estudió ciencias políticas en Londres y Montreal, fue ministra de justicia cantonal y presidió el Consejo de Estados. Su decisión de presentar cargos criminales en lugar de simplemente eliminar la publicación señala una intención de probar si la ley suiza de difamación, que criminaliza tanto la difamación bajo el Artículo 173 como la calumnia bajo el Artículo 174 del código penal, puede alcanzar a los operadores de sistemas de IA y las plataformas que los albergan. La cuestión legal en el corazón de la denuncia es si las empresas de redes sociales y sus operadores, además de los usuarios individuales, pueden ser considerados penalmente responsables por el contenido generado por sus propias herramientas de IA.
Esa pregunta no ha sido respondida en ninguna parte del mundo, pero los tribunales están comenzando a confrontarla. En Estados Unidos, el activista conservador Robby Starbuck demandó a Meta en 2025 después de que su IA lo vinculó falsamente al motín del Capitolio del 6 de enero; Meta llegó a un acuerdo en lugar de litigar. Un tribunal de Georgia desestimó un caso de difamación separado contra OpenAI después de que ChatGPT fabricara afirmaciones sobre un presentador de radio, dictaminando que no se había cumplido el umbral legal de culpa. Ningún caso de difamación por IA ha llegado a un juicio final en ninguna jurisdicción. La denuncia de Keller-Sutter, presentada bajo un marco criminal en lugar de civil y en un país cuya ley de difamación conlleva penas de prisión de hasta tres años por calumnia deliberada, podría establecer el primer precedente vinculante sobre la responsabilidad de las plataformas de IA por el discurso generado.
La presentación llega en el contexto de lo que se ha convertido en la crisis regulatoria más sostenida en la breve existencia de Grok. Entre el 29 de diciembre de 2025 y el 8 de enero de 2026, las herramientas de generación de imágenes de Grok crearon más de tres millones de imágenes sexualizadas, aproximadamente 23,000 de las cuales representaban a menores, según el Centro para Combatir el Odio Digital. El descubrimiento desencadenó una cascada de acciones legales y regulatorias que no ha cesado. El 2 de enero, ministros franceses informaron el contenido a los fiscales, calificándolo de "manifiestamente ilegal". El 12 de enero, la Ofcom del Reino Unido abrió una investigación formal sobre si X había cumplido con la Ley de Seguridad en Línea, con posibles sanciones de hasta 18 millones de libras o el 10 por ciento de los ingresos globales. El 14 de enero, el fiscal general de California anunció una investigación estatal sobre si xAI había violado la ley de California. El 26 de enero, la Comisión Europea abrió una investigación bajo la Ley de Servicios Digitales para determinar si el despliegue de Grok cumplía con las obligaciones legales de la plataforma respecto al contenido ilegal y el daño a menores.
Las acciones de aplicación de la ley se intensificaron drásticamente en febrero. El 3 de febrero, fiscales franceses, acompañados por una unidad de ciberdelitos y oficiales de Europol, allanaron las oficinas de X en París. La investigación, originalmente abierta por quejas sobre la operación de la plataforma y la extracción de datos, se había ampliado para incluir cargos de complicidad en la distribución de material de abuso sexual infantil, creación de deepfakes sexualmente explícitos y negación del Holocausto. Desde entonces, los fiscales han citado a Musk y a la ex directora ejecutiva de X, Linda Yaccarino, para entrevistas voluntarias el 20 de abril. Un tribunal holandés ordenó por separado que Grok fuera prohibido de generar imágenes íntimas no consensuadas. La UE ya había multado a X con 120 millones de euros en diciembre de 2025 por violar los requisitos de transparencia de la DSA, una sanción que X ahora está impugnando en lo que se ha convertido en la primera prueba judicial de la histórica regulación digital del bloque.
En Estados Unidos, tres adolescentes de Tennessee presentaron una demanda colectiva contra xAI el 16 de marzo, alegando que Grok había sido utilizado para crear imágenes sexualizadas de ellos sin su conocimiento o consentimiento. Las imágenes fueron supuestamente compartidas en Discord y otras plataformas. El 25 de marzo, Baltimore se convirtió en la primera ciudad estadounidense en demandar a xAI por pornografía deepfake generada por Grok, alegando violaciones de la ley de protección al consumidor. Una acción colectiva separada, presentada por Lieff Cabraser Heimann & Bernstein, alega que xAI diseñó y se benefició intencionadamente de un generador de imágenes utilizado para producir y distribuir material de abuso sexual infantil mientras se negaba a implementar las medidas de seguridad de contenido adoptadas por todas las demás grandes empresas de IA.
El vacío de gobernanza en xAI agrava la exposición legal. Todos los 11 cofundadores originales de xAI han abandonado ahora la empresa, incluidos investigadores reclutados de Google DeepMind, Google Brain y Microsoft Research. Musk dijo en marzo que xAI "no se construyó bien la primera vez" y necesitaba ser reconstruida desde sus cimientos. La empresa fue absorbida por SpaceX en febrero a través de una fusión totalmente en acciones que planteó preguntas inmediatas de gobernanza, creando una entidad combinada valorada en 1.25 billones de dólares que ahora se prepara para lo que sería la mayor oferta pública inicial en la historia. Los riesgos regulatorios y de litigio que rodean a Grok están, de hecho, ahora incrustados en el prospecto de una empresa que busca una valoración pública de 1.75 billones de dólares.
Lo que hace que la denuncia de Keller-Sutter sea distinta de los casos de deepfake y CSAM es su simplicidad. No involucra generación de imágenes, algoritmos de desnudo o explotación infantil. Involucra un chatbot que fue solicitado para insultar a un funcionario público nombrado y lo hizo en un lenguaje que, bajo la ley suiza, constituye un delito criminal. La cuestión fáctica es estrecha: ¿quién es responsable cuando un sistema de IA, operando en una plataforma comercial, genera un discurso difamatorio a solicitud de un usuario? Si el usuario no puede ser identificado, ¿la responsabilidad recae en el operador de la plataforma, en el desarrollador de IA, o en nadie en absoluto?
La respuesta a esa pregunta dará forma a la trayectoria de la gobernanza de la IA mucho más allá de Suiza. Cada gran empresa de IA opera chatbots capaces de producir declaraciones difamatorias, abusivas o fácticamente falsas sobre personas reales. La mayoría ha implementado medidas de seguridad diseñadas para rechazar tales solicitudes. Grok, por diseño deliberado, ha operado con menos restricciones que sus competidores, una posición que Musk ha comercializado como un compromiso con la libre expresión. El caso de Keller-Sutter pone a prueba si esa posición puede sobrevivir al contacto con la ley penal.
Suiza no es la Unión Europea y no está sujeta a la DSA. Pero la ley suiza de difamación está entre las más estrictas de Europa, y un hallazgo criminal contra un operador de plataforma de IA reverberaría en cada jurisdicción que actualmente está sopesando preguntas similares. El caso es pequeño en alcance, involucrando una sola publicación en una sola plataforma sobre un solo funcionario. Pero el principio que busca establecer, que las empresas que construyen estos sistemas asumen el tipo de responsabilidad legal que la era de la gobernanza de IA exige, no es en absoluto pequeño. Si Grok puede ser incitado a difamar a
Otros artículos
El ministro de finanzas suizo presenta cargos criminales por abuso generado por Grok en X.
Karin Keller-Sutter, la ex presidenta de Suiza, ha presentado cargos por difamación después de que Grok fuera incitado a generar abusos sexistas sobre ella en X. El caso podría sentar el primer precedente sobre la responsabilidad de las plataformas de IA.
