Los trabajadores de Google DeepMind votan para sindicalizarse después de que un acuerdo clasificado de IA del Pentágono anule ocho años de promesas éticas.
TL;DRLos trabajadores de Google DeepMind en el Reino Unido votaron un 98 por ciento a favor de sindicalizarse después de que Google firmara un acuerdo clasificado de IA con el Pentágono para "cualquier propósito legal", convirtiéndose en el primer laboratorio de IA de frontera en organizarse colectivamente. Las demandas del sindicato incluyen poner fin al uso de IA militar, restaurar el compromiso de Google de no desarrollar armas y crear un organismo independiente de ética.
En 2018, cuatro mil empleados de Google firmaron una petición contra el Proyecto Maven, un contrato del Pentágono que utilizaba la IA de la empresa para analizar imágenes de vigilancia de drones. Google no renovó el contrato. Publicó un conjunto de principios de IA comprometiéndose a no desarrollar armas ni tecnología de vigilancia que violara normas internacionales. Formó un equipo de ética en IA. El episodio se trató como prueba de que los trabajadores tecnológicos podían moldear los límites morales de las empresas para las que trabajaban. Ocho años después, Google ha firmado un acuerdo clasificado de IA con el Pentágono para "cualquier propósito gubernamental legal", eliminó su compromiso de no desarrollar armas de sus principios publicados y despidió a los líderes del equipo de ética que creó en respuesta al Proyecto Maven. Los investigadores que construyeron la IA que ahora se ofrece al ejército han respondido de la única manera que la empresa les ha dejado: han votado para sindicalizarse.
La votación
Los trabajadores de las oficinas de Google DeepMind en el Reino Unido votaron en abril para unirse al Sindicato de Trabajadores de la Comunicación y Unite the Union, con un 98 por ciento de los votos a favor. Esta semana enviaron una carta a la dirección solicitando el reconocimiento formal de los sindicatos como sus representantes oficiales. Si se les reconoce, se convertirían en el primer laboratorio de IA de frontera en el mundo con trabajadores sindicalizados. La votación no se centró principalmente en salarios, beneficios o condiciones laborales. Se trataba del Pentágono. Más de 580 empleados de Google, incluidos 20 directores y vicepresidentes y investigadores senior de DeepMind, ya habían firmado una carta instando al CEO Sundar Pichai a rechazar el acuerdo clasificado de IA militar. Más de 100 empleados de DeepMind firmaron por separado una carta interna exigiendo que ninguna investigación o modelo de DeepMind se utilizara para el desarrollo de armas o la orientación autónoma. La empresa firmó el acuerdo de todos modos.
Las demandas del sindicato son específicas: el fin del uso de la IA de Google por parte del ejército israelí y el ejército de EE. UU., la restauración del compromiso de la empresa de no construir armas de IA ni herramientas de vigilancia, la creación de un organismo independiente de supervisión ética y el derecho individual de los investigadores a negarse a contribuir a proyectos por motivos morales. Estas no son demandas sindicales típicas. Son demandas de gobernanza, impuestas desde abajo porque las estructuras de gobernanza que se suponía debían existir desde arriba, los principios de IA, la junta de ética, los procesos de revisión interna, fueron desmanteladas o ignoradas cuando entraron en conflicto con los ingresos.
El acuerdo
Google firmó el acuerdo clasificado del Pentágono para "cualquier propósito legal" mientras se retiraba simultáneamente de una competencia de enjambres de drones de 100 millones de dólares después de una revisión ética interna, una contradicción que los investigadores describieron como incoherente. El acuerdo clasificado le da al Pentágono acceso a los modelos de IA de Google en redes aisladas donde Google no puede monitorear qué consultas se realizan, qué resultados se generan o qué decisiones se toman. El científico investigador de DeepMind, Alex Turner, criticó públicamente el acuerdo, publicando que Google "no puede vetar el uso" y se basa en "un lenguaje aspiracional sin restricciones legales". El contrato incluye salvaguardias asesoras que desaconsejan la vigilancia masiva y las armas autónomas sin supervisión humana, pero el gobierno puede solicitar ajustes a la configuración de seguridad, y en una red clasificada, no hay verificación independiente de que se respete alguna salvaguarda.
El acuerdo de Google es supuestamente más permisivo que el de OpenAI, que mantiene "plena discreción" sobre sus mecanismos de seguridad. Solo Anthropic se negó a otorgar al Pentágono acceso sin restricciones, insistiendo en que sus modelos no se utilizaran para armas autónomas o vigilancia masiva doméstica. En respuesta, el Pentágono designó a Anthropic como un riesgo en la cadena de suministro, ordenó al ejército que dejara de usar sus productos y firmó acuerdos con otras siete empresas, incluida Google, que aceptaron los términos que Anthropic rechazó. El mensaje para los investigadores de IA es claro: la empresa que mantuvo límites éticos fue castigada, y las empresas que eliminaron los suyos fueron recompensadas.
La historia
La protesta del Proyecto Maven de 2018 tuvo éxito porque el negocio de Google no dependía de contratos militares. La empresa podía permitirse alejarse de unos pocos millones de dólares en ingresos del Pentágono sin un impacto material en su modelo de negocio impulsado por la publicidad. En 2026, el mercado de IA clasificada vale decenas de miles de millones de dólares, el Pentágono ha demostrado que retaliará contra las empresas que se nieguen a cooperar, y los competidores de Google ya han firmado acuerdos equivalentes. Las condiciones estructurales que hicieron posible la influencia de los trabajadores en 2018 ya no existen. Google eliminó su compromiso explícito de no desarrollar IA para armas de sus principios publicados en febrero de 2025, una edición silenciosa que eliminó el estándar interno que los empleados habían utilizado para desafiar proyectos militares.
El despido de Timnit Gebru y Margaret Mitchell, las co-líderes del equipo de Ética de IA de Google, en 2020 y 2021 fue la primera señal de que la disidencia interna sobre la ética de la IA no sería tolerada. El despido de 28 empleados que protestaron contra el Proyecto Nimbus, el contrato de 1.2 mil millones de dólares que proporciona servicios de computación en la nube e IA al gobierno israelí, en 2024 fue el segundo. Para 2026, el patrón es claro: Google perseguirá contratos de IA militares y gubernamentales independientemente de la objeción interna, y los empleados que se opongan públicamente serán despedidos. La votación del sindicato es la respuesta de los trabajadores a ese patrón. Si la protesta individual resulta en despido, la negociación colectiva es el mecanismo restante para ejercer influencia sobre cómo se utiliza la tecnología que construyen.
El contexto
Meta y Microsoft han recortado colectivamente 23,000 empleos mientras aumentan el gasto de capital en IA en decenas de miles de millones, convirtiendo la nómina humana en infraestructura de GPU. La reestructuración de Big Tech en torno a la IA está eliminando roles en atención al cliente, moderación de contenido, aseguramiento de calidad e ingeniería, mientras concentra la inversión en los investigadores e ingenieros que construyen los modelos. Los trabajadores de DeepMind están entre los empleados más valiosos de la industria de IA, y su decisión de sindicalizarse refleja una conciencia de que su influencia es temporal: a medida que los modelos se vuelven más capaces, el número de investigadores necesarios para avanzar en la frontera puede disminuir, y la ventana para que los trabajadores moldeen cómo se utiliza su trabajo se estrecha con cada generación de modelo que requiere menos humanos para construir.
Los tribunales chinos han dictaminado que reemplazar trabajadores con IA no es un motivo legal para el despido, estableciendo un precedente de que la economía que despliega IA más agresivamente en el mundo tiene límites sobre cómo se puede utilizar la tecnología para eliminar roles humanos. La decisión ilustra una divergencia global: los gobiernos están comenzando a definir los límites del impacto de la IA en los trabajadores, pero los límites difieren según la jurisdicción, y el uso ético de la IA en aplicaciones militares no tiene un marco legal comparable en ningún país. El sindicato de DeepMind opera en un vacío entre la ley laboral, que protege el derecho a organizarse, y la adquisición de defensa, donde los gobiernos tienen una amplia discreción sobre qué capacidades de IA adquieren y cómo las utilizan.
La pregunta
El impacto práctico de un sindicato de DeepMind depende de si Google lo reconoce voluntariamente. La ley del Reino Unido proporciona un proceso de reconocimiento estatutario si el empleador se niega, pero ese proceso puede tardar meses y requiere demostrar apoyo mayoritario dentro de una unidad de negociación definida. Incluso con el reconocimiento, la capacidad del sindicato para influir en los contratos militares es limitada: la negociación colectiva en el Reino Unido cubre salarios, horas y condiciones laborales, no la estrategia corporativa o las decisiones de adquisición gubernamental. La influencia del sindicato es reputacional y basada en la retención. Si suficientes investigadores senior se van, o amenazan creíblemente con irse, debido a los contratos de IA militar, el costo para las capacidades de investigación de Google podría superar los ingresos de los contratos mismos. Pero ese cálculo depende de si los investigadores son insustituibles, y en un mercado donde cada laboratorio de IA está contratando, la respuesta es menos clara que en 2018.
Lo que representa el sindicato de DeepMind es algo más grande que una disputa laboral. Es el primer intento organizado por las personas que construyen
Otros artículos
Los trabajadores de Google DeepMind votan para sindicalizarse después de que un acuerdo clasificado de IA del Pentágono anule ocho años de promesas éticas.
El personal de DeepMind UK votó un 98% a favor de unirse a CWU y Unite después de que Google firmara un acuerdo clasificado con el Pentágono para "cualquier propósito legal". Quieren que se termine el uso de IA militar y que se restablezcan la ética.
