Más de 580 empleados de Google, incluidos investigadores de DeepMind, instan a Pichai a rechazar el acuerdo clasificado de IA del Pentágono.

Más de 580 empleados de Google, incluidos investigadores de DeepMind, instan a Pichai a rechazar el acuerdo clasificado de IA del Pentágono.

      TL;DRMás de 580 empleados de Google, incluidos más de 20 directores y vicepresidentes, así como investigadores senior de DeepMind, firmaron una carta instando al CEO Sundar Pichai a rechazar el trabajo militar de IA clasificado para el Pentágono. La carta argumenta que en redes clasificadas desconectadas, Google no puede monitorear cómo se utiliza su IA, haciendo que "confíen en nosotros" sea la única barrera contra armas autónomas y vigilancia masiva. La fuerza laboral de Google ganó la lucha por el Proyecto Maven en 2018, pero desde entonces la compañía ha eliminado el lenguaje sobre armas de sus principios de IA, ganó una parte del contrato de nube JWCC de $9B, desplegó Gemini a 3 millones de personal del Pentágono y ahora está negociando acceso clasificado bajo términos de "todos los usos legales".

      Más de 580 empleados de Google, incluidos más de 20 directores, directores senior y vicepresidentes, han firmado una carta instando al CEO Sundar Pichai a rechazar el trabajo militar de IA clasificado para el Pentágono, según Bloomberg. La carta, que incluye a investigadores senior de Google DeepMind, fue enviada a Pichai el lunes. "Somos empleados de Google que estamos profundamente preocupados por las negociaciones en curso entre Google y el Departamento de Defensa de EE. UU.", dice. "Como personas que trabajan en IA, sabemos que estos sistemas pueden centralizar el poder y que cometen errores." Los firmantes quieren que Google rechace todas las cargas de trabajo clasificadas, argumentando que en redes clasificadas desconectadas, aisladas de Internet público, la compañía no tendría la capacidad de monitorear o limitar cómo se utilizan realmente sus herramientas de IA. "Actualmente, la única forma de garantizar que Google no se asocie con tales daños es rechazar cualquier carga de trabajo clasificada", afirma la carta. "De lo contrario, tales usos pueden ocurrir sin nuestro conocimiento o el poder de detenerlos."

      La historia

      Los empleados de Google han luchado esta batalla antes. En 2018, aproximadamente 4,000 trabajadores firmaron una petición interna y al menos 12 renunciaron debido al Proyecto Maven, un programa del Pentágono que utilizaba IA para detectar y analizar objetos en videos de drones. La protesta obligó a Google a introducir principios de IA comprometiéndose a no perseguir tecnología de armas o vigilancia, y a dejar que el contrato de Maven expirara en marzo de 2019. Palantir se hizo cargo. El contrato de Maven valía unos pocos millones de dólares. La inversión de Palantir en Maven ha crecido desde entonces a $13 mil millones. La victoria de 2018 fue real, pero también fue la última vez que la fuerza laboral de Google restringió con éxito las ambiciones de defensa de la compañía. En los años siguientes, Google ha reconstruido sistemáticamente cada puente que la protesta quemó.

      En diciembre de 2022, Google ganó una parte del contrato de $9 mil millones del Pentágono para la Capacidad de Nube de Guerra Conjunta junto a Amazon, Microsoft y Oracle. En febrero de 2025, Google eliminó el pasaje de sus principios de IA que prometía evitar el uso de la tecnología en "armas u otras tecnologías cuyo propósito o implementación principal sea causar o facilitar directamente daño a las personas" y evitar "tecnologías que recopilen o utilicen información para vigilancia violando normas internacionalmente aceptadas." Una publicación en el blog coescrita por Demis Hassabis, CEO de Google DeepMind, citó "una competencia global en curso por el liderazgo en IA" como justificación. Human Rights Watch y Amnistía Internacional condenaron la reversión. En diciembre de 2025, el Pentágono lanzó GenAI.mil, una plataforma impulsada por el chatbot Gemini de Google, disponible para todo el personal de defensa. El Secretario de Defensa Pete Hegseth dijo: "el futuro de la guerra americana está aquí, y se escribe IA." En marzo de 2026, Google desplegó agentes de IA Gemini a la fuerza laboral de tres millones del Pentágono a nivel no clasificado, con ocho agentes preconstruidos para tareas que incluyen resumir notas de reuniones, construir presupuestos y verificar acciones contra la estrategia de defensa.

      La negociación

      El acuerdo clasificado es el siguiente paso. Emil Michael, el subsecretario de defensa para investigación e ingeniería, dijo a Bloomberg en marzo que el Pentágono "comenzará con lo no clasificado porque ahí es donde están la mayoría de los usuarios, y luego llegaremos a lo clasificado y top secret." Confirmó que las conversaciones con Google sobre el uso de agentes Gemini en infraestructura de nube clasificada ya estaban en marcha. En abril, The Information informó que las negociaciones avanzan hacia "todos los usos legales" de las herramientas de IA de Google, una frase que no alcanza las líneas rojas que Anthropic estableció antes de ser designada como riesgo de cadena de suministro por el Pentágono por negarse a eliminar restricciones sobre armas autónomas y vigilancia masiva doméstica. El Pentágono disputó fuertemente la caracterización de Anthropic y argumentó que las empresas comerciales no deberían poder dictar políticas de uso durante tiempos de guerra o preparativos para la guerra.

      OpenAI firmó su propio acuerdo con el Pentágono horas después de la inclusión de Anthropic en la lista negra, con tres líneas rojas establecidas: no vigilancia masiva doméstica, no armas autónomas y no decisiones automatizadas de alto riesgo. Pero la aplicación de esas líneas rojas en redes clasificadas es la pregunta que están planteando los empleados de Google. En un sistema desconectado, la IA opera en una red que, por diseño, está desconectada de la infraestructura de Google. Google no puede ver qué consultas se están ejecutando, qué salidas se están generando o qué decisiones se están tomando con esas salidas. La garantía de "confíen en nosotros" de los líderes del Pentágono es el único mecanismo que previene usos que violarían cualquier línea roja que la compañía pudiera negociar. Sofia Liguori, ingeniera de investigación de IA en Google DeepMind en el Reino Unido que firmó la carta, dijo a Bloomberg que la respuesta principal a las preocupaciones de los trabajadores ha sido alentar a la fuerza laboral a confiar en el liderazgo de la empresa para firmar buenos contratos. "Pero todo se ha dejado muy amplio", dijo. "La IA agente es particularmente preocupante debido al nivel de independencia que puede alcanzar. Es como entregar una herramienta muy poderosa al mismo tiempo que se renuncia a cualquier tipo de control sobre su uso."

      Los riesgos

      El presupuesto de IA del Pentágono cuenta la historia de lo que financiaría el acuerdo clasificado. El presupuesto de defensa fiscal 2026 incluyó $13.4 mil millones dedicados a IA y autonomía. La solicitud fiscal 2027, presentada en abril, pide $54.6 mil millones para el Grupo de Guerra Autónoma de Defensa, un aumento del 24,000% respecto al año anterior, dentro de un presupuesto total de defensa de $1.5 billones que representa un aumento del 42% interanual. El Pentágono ya está probando soldados robots humanoides con Foundation Future Industries y ha formalizado a Palantir's Maven como un sistema militar central con financiamiento a varios años. La escala de la inversión militar en IA ha pasado de la fase experimental que caracterizó al Proyecto Maven en 2018 a una expansión industrial que trata la IA como una capacidad fundamental del ejército estadounidense. Las cargas de trabajo clasificadas a las que se oponen los empleados de Google estarían en el centro de esa expansión.

      Los organizadores de la carta dijeron: "Maven no ha terminado. Los trabajadores continuarán organizándose contra la militarización de la tecnología de IA de Google hasta que la empresa trace líneas claras y aplicables." El marco es significativo. En 2018, la lucha se trataba de un contrato para un programa. En 2026, la lucha es sobre si toda la pila de IA de Google, Gemini, la investigación de DeepMind, los chips TPU que alimentan la inferencia, se convierte en infraestructura militar en redes clasificadas donde nadie fuera del Pentágono puede ver lo que hace. La paradoja de la administración que incluye a Anthropic en la lista negra mientras insta a los bancos a adoptar su IA ilustra el entorno político: las empresas que resisten el uso militar sin restricciones enfrentan la designación como riesgos de cadena de suministro, mientras que las empresas que cumplen reciben contratos por miles de millones. Los empleados de Google están pidiendo a Pichai que rechace un acuerdo que el Pentágono ha dejado claro que castigará si se niega, en un momento en que la compañía ha pasado tres años reconstruyendo sus credenciales de defensa precisamente para ganar ese acuerdo.

      La brecha

      Las 580 firmas son notables por su antigüedad. Veinte directores, directores senior y vicepresidentes han firmado, junto con investigadores senior de DeepMind. Dos tercios de los firmantes acordaron ser nombrados; un tercio solicitó anonimato por temor a represalias. Una carta anterior interempresarial en febrero, firmada por aproximadamente 800 empleados de Google y 100 empleados de OpenAI, expresó apoyo a la postura de Anthropic contra el uso militar de IA sin restricciones. Más de 100 empleados de DeepMind firmaron por separado una carta interna exigiendo que ninguna investigación o modelo de DeepMind se utilice para el desarrollo de armas

Otros artículos

Cómo Arpit Agrawal está escalando los mercados de consumo en las economías emergentes Cómo Arpit Agrawal está escalando los mercados de consumo en las economías emergentes Arpit Agrawal está construyendo ecosistemas de distribución en mercados emergentes, combinando marcas globales, redes locales y herramientas digitales para llegar a miles de millones de consumidores. El último acuerdo escandaloso de Meta es recibir energía solar transmitida incluso por la noche desde satélites. El último acuerdo escandaloso de Meta es recibir energía solar transmitida incluso por la noche desde satélites. Meta ha acordado obtener energía de una flota de 1,000 satélites espaciales, que recogerán luz solar en órbita geosincrónica y la enviarán como luz infrarroja a las granjas solares en la Tierra. El regreso del iPhone a las pantallas curvas podría ser un truco inteligente, no vidrio inclinado. El regreso del iPhone a las pantallas curvas podría ser un truco inteligente, no vidrio inclinado. El filtrador Ice Universe insinúa que el iPhone del 20 aniversario de Apple podría contar con una "Pantalla de Vidrio Líquido", un nuevo lenguaje de pantalla que hace que los bordes casi desaparezcan utilizando ilusiones ópticas, no solo curvas. Las gafas VITURE Beast XR debutan con una pantalla virtual de 174 pulgadas y un campo de visión más amplio. Las gafas VITURE Beast XR debutan con una pantalla virtual de 174 pulgadas y un campo de visión más amplio. VITURE ha lanzado sus gafas Beast XR con una pantalla virtual más grande, mayor brillo y características independientes, con el objetivo de acercar las experiencias XR a los usuarios comunes. China prohíbe la inversión extranjera en el proyecto Manus AI a medida que aumenta el escrutinio sobre las exportaciones de IA. China prohíbe la inversión extranjera en el proyecto Manus AI a medida que aumenta el escrutinio sobre las exportaciones de IA. La Comisión Nacional de Desarrollo y Reforma de China (NDRC) anunció hoy que, de acuerdo con las leyes y regulaciones, ha emitido una decisión. Cómo Arpit Agrawal está escalando los mercados de consumo en las economías emergentes Cómo Arpit Agrawal está escalando los mercados de consumo en las economías emergentes Arpit Agrawal está construyendo ecosistemas de distribución en mercados emergentes, combinando marcas globales, redes locales y herramientas digitales para alcanzar a miles de millones de consumidores.

Más de 580 empleados de Google, incluidos investigadores de DeepMind, instan a Pichai a rechazar el acuerdo clasificado de IA del Pentágono.

Más de 580 empleados de Google firmaron una carta en oposición al trabajo militar clasificado en inteligencia artificial. En redes aisladas, Google no puede monitorear cómo se utiliza Gemini. La empresa eliminó sus propias líneas rojas sobre armas el año pasado.