Estados Unidos acaba de decirle a China que deje de copiar su IA. Hacer cumplir eso es la parte difícil.
Resumen: La OSTP de la Casa Blanca publicó un memorando de política acusando a China de destilación “a escala industrial” de modelos de IA estadounidenses, comprometiéndose a compartir inteligencia con empresas de IA de EE. UU. y explorar medidas de responsabilidad. OpenAI acusó a DeepSeek de destilar sus modelos en febrero; Anthropic nombró a DeepSeek, MiniMax y Moonshot AI como responsables de la creación de 24,000 cuentas fraudulentas que generaron más de 16 millones de intercambios con Claude. La Ley para Desalentar el Robo de Modelos de IA Americanos (H.R. 8283) fue presentada el 15 de abril. El memorando llega tres semanas antes de una cumbre planificada entre Trump y Xi el 14 de mayo.
La Casa Blanca acusó a China el miércoles de llevar a cabo un robo de inteligencia artificial estadounidense “a escala industrial”, publicando un memorando de política que compromete al gobierno a compartir inteligencia con empresas de IA de EE. UU. sobre campañas de destilación extranjeras y explorar medidas para responsabilizar a los perpetradores. Michael Kratsios, director de la Oficina de Política de Ciencia y Tecnología, dijo que EE. UU. “tiene evidencia de que entidades extranjeras, principalmente en China, están llevando a cabo campañas de destilación a escala industrial para robar IA estadounidense. Tomaremos medidas para proteger la innovación americana.” El memorando llega tres semanas antes de una cumbre planificada entre Trump y Xi en Beijing el 14 de mayo, posicionando la protección de la tecnología de IA como un imperativo de seguridad nacional y una carta de negociación.
La destilación es la técnica en el centro de la disputa. No requiere robar pesos de modelos ni infiltrarse en servidores. Un destilador alimenta miles o millones de consultas cuidadosamente construidas a un modelo de IA de frontera, recoge las respuestas y utiliza esas respuestas para entrenar un modelo rival más barato que aproxima las capacidades del original a una fracción del costo. En efecto, se trata de aprender de las respuestas del maestro en lugar de del cerebro del maestro. El estatus legal de esta técnica es incierto. Las implicaciones estratégicas no lo son.
La evidencia
El memorando de la OSTP se basa en alegaciones que las empresas de IA de EE. UU. han estado haciendo desde febrero. OpenAI envió un memorando formal al Comité Selecto de la Cámara sobre China el 12 de febrero acusando a DeepSeek de destilar sus modelos. OpenAI dijo que había identificado cuentas asociadas con empleados de DeepSeek que desarrollaron métodos para eludir las restricciones de acceso, dirigiendo consultas a través de proxies de terceros ofuscados para extraer salidas a gran escala. Los términos de servicio de OpenAI prohíben explícitamente el uso de salidas para crear “modelos de IA de frontera de imitación.” DeepSeek no ha respondido públicamente a las acusaciones.
Anthropic publicó evidencia más detallada el 23 de febrero, nombrando a tres laboratorios chinos. DeepSeek, dijo, realizó más de 150,000 intercambios con Claude centrados en técnicas de lógica fundamental y alineación. MiniMax generó el mayor tráfico, con más de 13 millones de intercambios. Moonshot AI generó más de 3.4 millones de intercambios dirigidos al razonamiento agente, uso de herramientas, codificación y visión por computadora. A través de las tres empresas, Anthropic identificó aproximadamente 24,000 cuentas fraudulentas que generaron más de 16 millones de intercambios con Claude. Las cuentas utilizaron técnicas de jailbreak para exponer información propietaria y eludieron la geolocalización a través de servicios de proxy comerciales.
A principios de abril, OpenAI, Anthropic y Google habían comenzado a compartir inteligencia sobre amenazas de destilación a través del Frontier Model Forum, una coalición fundada originalmente en 2023 con Microsoft. El acuerdo está modelado en marcos de intercambio de amenazas de ciberseguridad: cuando una empresa detecta un patrón de ataque, lo señala a las demás. Que tres competidores feroces acordaran cooperar en algo es en sí mismo una medida de cuán en serio toman la amenaza. DeepSeek demostró que el rendimiento de la IA de frontera ya no requiere recursos a escala de Silicon Valley, y la pregunta que ahora se hace el gobierno de EE. UU. es cuánto de esa eficiencia fue ganada y cuánto fue extraído.
La respuesta política
El memorando de la OSTP es una declaración de política, no una orden ejecutiva o una regulación vinculante. Dirige a los departamentos federales a compartir inteligencia con desarrolladores de IA de EE. UU. sobre intentos de destilación extranjeros, ayudar a la industria a fortalecer defensas técnicas y explorar medidas de responsabilidad para actores extranjeros. No se anunciaron sanciones específicas, adiciones a listas de entidades o acciones de aplicación el miércoles. La fuerza práctica del memorando dependerá de lo que le siga.
El Congreso se mueve en paralelo. El 15 de abril, el representante Bill Huizenga presentó la Ley para Desalentar el Robo de Modelos de IA Americanos de 2026, co-patrocinada por el representante John Moolenaar, quien preside el Comité Selecto de la Cámara sobre China. El proyecto de ley dirigiría al gobierno a identificar entidades que utilizan “técnicas inapropiadas de consulta y copia” e imponer sanciones a través de la lista negra del Departamento de Comercio. El Comité Selecto de la Cámara celebró una audiencia el 16 de abril titulada “La Campaña de China para Robar la Ventaja de IA de América,” con testigos de Brookings, el Silverado Policy Accelerator y el America First Policy Institute. El tema cuenta con apoyo bipartidista. Roll Call informó que “ganar la carrera armamentista de IA es atractivo para ambos partidos.”
La teoría legal que subyace a la persecución sigue siendo incierta. La Ley de Protección de la Propiedad Intelectual Americana, firmada en enero de 2023, autoriza sanciones por robo de secretos comerciales, pero si las salidas de modelos extraídas califican como secretos comerciales bajo los marcos existentes es una cuestión abierta. El South China Morning Post señaló que las acusaciones de destilación de Anthropic “exponen un área gris en el entrenamiento de IA,” y analistas legales en Just Security han argumentado que el caso para imponer costos a la destilación requiere intervención gubernamental específica precisamente porque la ley de propiedad intelectual existente no la cubre de manera clara.
La segunda línea de defensa
El cambio de controles de hardware a protecciones a nivel de modelo representa un reconocimiento de que la primera línea de defensa está filtrando. EE. UU. ha estado restringiendo el acceso de China a chips de IA avanzados desde octubre de 2022, ampliando las reglas en octubre de 2023 y nuevamente con la Regla de Difusión de IA en enero de 2025. En enero de 2026, la Oficina de Industria y Seguridad cambió su revisión de exportaciones de H200 y AMD MI325X a China de una presunción de denegación a una revisión caso por caso, mientras que la Casa Blanca impuso simultáneamente un arancel del 25% sobre semiconductores avanzados. Nvidia fue autorizada a vender su chip de inferencia H20; AMD su MI308.
Pero los controles de hardware son eludidos en la práctica. Un esquema de 2.5 mil millones de dólares para contrabandear chips de IA de Nvidia a China a través del cofundador de Super Micro fue acusado en marzo. Jensen Huang advirtió que DeepSeek optimizando para chips de Huawei sería un “resultado horrible” para América, porque eliminaría por completo el punto de estrangulamiento del hardware. Si los chips avanzados pueden ser contrabandeados a pesar de los controles de exportación, y si los fabricantes de chips chinos están cerrando la brecha con alternativas nacionales, entonces prevenir el acceso a los modelos mismos se convierte en la segunda capa crítica de la estrategia de negación tecnológica. Las propuestas para etiquetar chips de IA con identificadores únicos representan una tercera capa, rastreando flujos de hardware para prevenir desvíos. La arquitectura emergente es defensa en profundidad: controlar los chips, controlar los modelos y rastrear ambos.
La complicación de código abierto
La destilación no es el único canal a través del cual la tecnología de IA de EE. UU. llega a laboratorios chinos. Los modelos Llama de Meta son de código abierto, lo que significa que los pesos están disponibles públicamente para su descarga. Investigadores chinos de instituciones vinculadas al PLA ajustaron Llama 13B con datos militares para crear ChatBIT, un modelo diseñado para aplicaciones de inteligencia militar. La política de uso aceptable de Meta prohíbe aplicaciones militares y de espionaje, pero la empresa no tiene medios técnicos para hacer cumplir esa restricción en lanzamientos de código abierto. Una vez que los pesos son publicados, se pierde el control. Meta respondió abriendo Llama al ejército de EE. UU. y aliados de Five Eyes mientras mantenía la prohibición para adversarios, una distinción política que es legalmente significativa y prácticamente inaplicable.
La tensión entre la IA de código abierto y la seguridad nacional ha estado creciendo durante años, pero no ha producido una resolución política coherente. Los modelos de código abierto impulsan la investigación, atraen talento y crean ecosistemas que benefician a las empresas estadounidenses. Restringirlos ralentizar
Otros artículos
Estados Unidos acaba de decirle a China que deje de copiar su IA. Hacer cumplir eso es la parte difícil.
La OSTP dice que China está llevando a cabo campañas a escala industrial para destilar modelos de IA de EE. UU. OpenAI, Anthropic y Google están compartiendo inteligencia sobre amenazas. El Congreso está redactando sanciones.
