DeepSeek regresa con V4-Pro y V4-Flash, un año después de su 'momento Sputnik'
La startup de Hangzhou lanzó versiones de vista previa de ambos modelos en Hugging Face el viernes. V4-Pro afirma tener el mejor rendimiento en codificación y matemáticas entre los modelos abiertos, solo es superado por Gemini 3.1-Pro en conocimiento mundial, y se queda “marginalmente corto” en comparación con GPT-5.4 y Gemini 3.1-Pro, una brecha que DeepSeek dice que es “aproximadamente de 3 a 6 meses.” Ambos modelos son de código abierto.
DeepSeek, la startup de IA con sede en Hangzhou que revolucionó Silicon Valley con su modelo R1 en enero de 2025, lanzó versiones de vista previa de sus últimos modelos insignia el viernes, aproximadamente un año después de ese shock original.
La compañía publicó DeepSeek-V4-Pro y DeepSeek-V4-Flash en Hugging Face, describiendo el lanzamiento como la plataforma de IA de código abierto más poderosa disponible y un desafío directo a rivales como OpenAI y Anthropic.
Ambos modelos siguen el modelo de código abierto utilizado por sus predecesores, lo que significa que los desarrolladores son libres de usar y modificar el código fuente.
El avance técnico principal en V4 es la Arquitectura de Atención Híbrida, una técnica que DeepSeek dice que mejora la capacidad del modelo para retener el contexto a lo largo de largas conversaciones. El 💜 de la tecnología de la UE Las últimas novedades de la escena tecnológica de la UE, una historia de nuestro sabio fundador Boris, y un arte de IA cuestionable. Es gratis, cada semana, en tu bandeja de entrada. ¡Suscríbete ahora!
Combinada con una ventana de contexto de 1 millón de tokens, suficiente para procesar una base de código completa o un documento de longitud de libro en un solo aviso, la arquitectura está diseñada para tareas de razonamiento agente y de largo plazo, donde los modelos anteriores degradaban en calidad a medida que aumentaba la longitud del contexto. La variante Flash está optimizada para velocidad y eficiencia de costos; la variante Pro para capacidad máxima.
El propio benchmark de DeepSeek posiciona a V4-Pro como el modelo de código abierto más fuerte en codificación y matemáticas, con un rendimiento que solo es superado por el modelo cerrado de Google, Gemini 3.1-Pro, en conocimiento mundial.
Frente a la actual frontera de modelos cerrados, GPT-5.4 de OpenAI y Gemini 3.1-Pro — la compañía dice que V4-Pro se queda solo “marginalmente corto,” y ofrece una autoevaluación sincera: su “trayectoria de desarrollo” se queda atrás de los modelos de frontera de última generación por aproximadamente 3 a 6 meses.”
Ese marco es inusual en los lanzamientos de modelos de IA, que típicamente enfatizan comparaciones donde el nuevo modelo lidera. Que DeepSeek esté publicando una estimación de brecha en lugar de reclamar paridad refleja ya sea una inusual honestidad intelectual o un movimiento estratégico para establecer expectativas conservadoras antes de una evaluación independiente.
La historia de los chips es el elemento cargado geopolíticamente. DeepSeek trabajó con los fabricantes de chips de IA chinos Huawei y Cambricon para optimizar V4 para su último hardware, según Reuters, citando a The Information.
La compañía no dio acceso anticipado a Nvidia o AMD para la optimización, una reversión de la práctica estándar de la industria en la que los fabricantes de chips occidentales son típicamente los primeros en recibir nuevos pesos de modelo para la afinación del rendimiento.
Ejecutar un modelo de clase frontera a esta escala en los chips Ascend de Huawei, en lugar de en H100s o H200s de Nvidia, sería una prueba de concepto significativa para la cadena de suministro de hardware de IA doméstica de China, que ha estado bajo restricciones de exportación de EE. UU. desde octubre de 2022. El lanzamiento de V4 no termina con esa restricción geopolítica, pero prueba sus límites de una manera comercialmente visible.
El momento del lanzamiento, el viernes 24 de abril de 2026, aproximadamente un año después de DeepSeek-R1, es deliberado. El lanzamiento de DeepSeek-R1 en enero de 2025 borró aproximadamente $600 mil millones de la capitalización de mercado de Nvidia en un solo día, mientras los inversores recalibraban sus suposiciones sobre la computación requerida para construir IA de frontera.
Marc Andreessen lo llamó “el momento Sputnik de la IA.” La afirmación práctica era que un laboratorio chino había igualado el mejor modelo de razonamiento de OpenAI mientras gastaba menos de $6 millones en computación, una cifra que algunos analistas disputaron pero que, no obstante, restableció las suposiciones globales sobre la economía del desarrollo de IA de frontera.
V4 llega a un mercado diferente: uno donde OpenAI ha lanzado GPT-5.5 el mismo día, donde Anthropic está valorada en $1 billón en mercados secundarios, y donde la competencia de IA entre EE. UU. y China se ha convertido en una dimensión explícita de la política comercial y tecnológica. El segundo acto de DeepSeek aterriza en una arena mucho más disputada que su primero.
Ambos modelos son lanzamientos de vista previa, no versiones finales de producción. La evaluación independiente aún no se ha completado al momento de escribir, y los propios benchmarks de DeepSeek deben ser tratados como preliminares hasta que una evaluación de terceros los confirme.
La misma advertencia se aplicó a R1, cuyas afirmaciones fueron ampliamente validadas por pruebas externas dentro de los días posteriores al lanzamiento. Si V4 se mantiene bajo el mismo escrutinio será claro dentro de la semana.
Otros artículos
DeepSeek regresa con V4-Pro y V4-Flash, un año después de su 'momento Sputnik'
DeepSeek lanza versiones preliminares de V4-Pro y V4-Flash en Hugging Face, de código abierto, con una ventana de contexto de 1 millón de tokens y optimización para chips de Huawei.
