DeepSeek reduce los precios de V4-Pro en un 75%
El descuento promocional estará vigente hasta el 5 de mayo de 2026. Incluso a precio completo, el V4-Pro ya supera a GPT-5.5, Claude Opus 4.7 y Gemini 3.1 Pro en costos por token.
El movimiento es un desafío directo a la estrategia de precios de los proveedores de IA de EE. UU. en un momento en que la administración Trump ha acusado a las empresas chinas de destilar modelos de IA estadounidenses a escala industrial.
DeepSeek anunció el lunes que está ofreciendo un descuento del 75% en su recién lanzado modelo DeepSeek-V4-Pro a los desarrolladores hasta el 5 de mayo de 2026, y al mismo tiempo está reduciendo el precio de los hits de caché de entrada en toda su suite de API a una décima parte de los niveles anteriores, con efecto inmediato.
El descuento fue anunciado en una publicación en X. El movimiento intensifica una competencia de precios con los proveedores de IA de EE. UU. que DeepSeek desencadenó por primera vez en enero de 2025 con su modelo R1, que afirmaba tener un rendimiento de razonamiento de nivel fronterizo a una fracción del costo de productos comparables de OpenAI.
El 💜 de la tecnología de la UE Las últimas novedades de la escena tecnológica de la UE, una historia de nuestro sabio fundador Boris y un arte de IA cuestionable. Es gratis, cada semana, en tu bandeja de entrada. ¡Regístrate ahora! El contexto de precios es importante. A precio completo, antes de cualquier descuento promocional, el DeepSeek-V4-Pro ya cuesta $0.145 por millón de tokens de entrada y $3.48 por millón de tokens de salida, superando a GPT-5.5 de OpenAI, Gemini 3.1 Pro de Google y Claude Opus 4.7 de Anthropic en base a costos por token.
El descuento promocional del 75% en tokens de entrada reduce el precio de entrada del V4-Pro a aproximadamente $0.036 por millón de tokens. La variante Flash, el modelo más pequeño y rápido de V4, cuesta $0.14 por millón de tokens de entrada y $0.28 por millón de tokens de salida a precio completo, superando ya a GPT-5.4 Nano, Gemini 3.1 Flash, GPT-5.4 Mini y Claude Haiku 4.5.
La reducción del precio de hits de caché a una décima parte de los niveles anteriores está dirigida específicamente a usuarios frecuentes y desarrolladores empresariales que envían solicitudes similares o repetidas, que es el patrón dominante en aplicaciones productivas agenciales.
La lógica estratégica es explícita y está bien documentada en cómo DeepSeek ha operado desde R1. La disponibilidad de código abierto elimina por completo la barrera de acceso al modelo; la agresiva fijación de precios de la API elimina la barrera de costo para el despliegue en producción; una ventana de contexto de 1 millón de tokens hace que el modelo sea viable para casos de uso empresarial que involucran grandes bases de código o documentos largos que de otro modo requerirían múltiples llamadas a la API.
El V4-Pro también se integra de manera nativa con Claude Code, OpenClaw y OpenCode, los marcos de codificación agenciales dominantes utilizados por desarrolladores ya en el ecosistema de IA occidental.
El efecto combinado es reducir la fricción de cambiar de una API de OpenAI, Anthropic o Google a una API de DeepSeek para cualquier desarrollador cuya principal limitación sea el costo. Akshar Keremane, cofundador de la startup de IA O-Health con sede en Bangalore, describió la combinación de precios, disponibilidad de código abierto y la ventana de contexto de 1 millón de tokens como una reducción de barreras “para desarrolladores, startups y pequeñas empresas.”
El modelo V4-Pro, lanzado el viernes pasado, es un modelo de mezcla de expertos con 1.6 billones de parámetros totales y 49 mil millones de parámetros activos por tarea, el modelo de pesos abiertos más grande actualmente disponible, superando a Kimi K2.6 de Moonshot AI y M1 de MiniMax.
Su Arquitectura de Atención Híbrida está diseñada para mantener la coherencia a través de contextos largos. Está entrenado y optimizado para los chips Ascend 950 de Huawei y hardware Cambricon en lugar de GPUs de Nvidia.
Zhang Yi, fundador de la firma de investigación tecnológica iiMedia, dijo a AFP que la arquitectura de V4 representa un “punto de inflexión genuino” para el procesamiento de IA de contexto largo, prediciendo que el soporte para contextos ultra-largos se moverá más allá de los laboratorios de investigación hacia aplicaciones comerciales convencionales.
Wei Sun, analista principal de Counterpoint Research, señaló que V4 que funciona en chips nacionales “permite que los sistemas de IA se construyan y desplieguen sin depender únicamente de Nvidia” y podría “acelerar la adopción a nivel nacional y contribuir a un desarrollo global de IA más rápido en general.”
El movimiento de precios llega en un contexto geopolítico cargado. El jueves de la semana pasada, el Director de Política Científica y Tecnológica de la Casa Blanca, Michael Kratsios, acusó a entidades extranjeras, principalmente con sede en China, de llevar a cabo campañas de “escala industrial” para destilar modelos de IA fronterizos de empresas estadounidenses, un proceso en el que un modelo más pequeño se entrena utilizando las salidas de un modelo más grande para adquirir capacidades similares a un costo menor.
El memorando de Kratsios no nombró directamente a DeepSeek, pero DeepSeek ha sido acusado anteriormente tanto por Anthropic como por OpenAI de destilar sus modelos. CNN informó que se ha puesto en contacto con DeepSeek para obtener comentarios sobre esas acusaciones.
La represión del gobierno de EE. UU. sobre la destilación, junto con el movimiento paralelo de China para restringir la inversión estadounidense en sus empresas de IA, fue anunciada el día antes del lanzamiento de V4.
La respuesta de DeepSeek, tres días después, es reducir precios en lugar de responder directamente a las acusaciones: un movimiento competitivo que también es una declaración política sobre dónde cree que se decidirá finalmente la carrera de IA.
OpenAI ha reducido los precios de la API múltiples veces; Anthropic ha introducido precios escalonados para diferentes tamaños de modelos Claude; Google ha reducido progresivamente los costos de la API de Gemini.
El anuncio del lunes de DeepSeek es el último movimiento en esa compresión continua, pero es distintivo en su escala, un descuento promocional del 75% sobre un modelo que ya supera a la frontera de EE. UU. a precios estándar, y en su momento, que posiciona a la startup de Hangzhou como el retador de bajo costo en la misma semana en que OpenAI lanzó GPT-5.5 y el gobierno de EE. UU. se movió para restringir la destilación de modelos chinos.
Otros artículos
DeepSeek reduce los precios de V4-Pro en un 75%
DeepSeek está ofreciendo un 75% de descuento en V4-Pro hasta el 5 de mayo y reduciendo los precios de los aciertos de caché de API a 1/10 en toda su suite.
