Google ha lanzado Gemma 4
Construida a partir de la misma investigación que Gemini 3, la nueva familia abarca un modelo de borde de 2B que funciona en una Raspberry Pi hasta un modelo denso de 31B que actualmente ocupa el tercer lugar en la tabla de clasificación de modelos abiertos de Arena AI. La licencia Apache 2.0 representa un cambio significativo con respecto a las versiones anteriores de Gemma.
Google ha lanzado Gemma 4, la última generación de su familia de modelos de peso abierto, en cuatro tamaños diseñados para cubrir todo, desde la inferencia en dispositivos en teléfonos inteligentes hasta implementaciones de clase estación de trabajo.
Los modelos se construyen a partir de la misma investigación y tecnología que sustentan Gemini 3, el modelo de frontera propietario de Google, y se lanzan bajo una licencia Apache 2.0, términos más permisivos que las generaciones anteriores de Gemma, y un cambio que el cofundador de Hugging Face, Clément Delangue, describió como “un gran hito.”
Demis Hassabis, CEO de Google DeepMind, llamó a los nuevos modelos “los mejores modelos abiertos del mundo para sus respectivos tamaños.”
Las cuatro variantes son los modelos de borde Efectivo 2B (E2B) y Efectivo 4B (E4B), diseñados para funcionar en dispositivos en teléfonos, Raspberry Pi y hardware Jetson Nano desarrollado en colaboración con el equipo de Pixel, Qualcomm y MediaTek; y los modelos de 26B Mezcla de Expertos (MoE) y 31B Denso, destinados a uso fuera de línea en hardware de desarrolladores y GPUs de consumo.
El modelo Denso de 31B actualmente ocupa el tercer lugar entre todos los modelos abiertos en la tabla de clasificación de texto de Arena AI; el MoE de 26B ocupa el sexto. Google afirma que ambos modelos más grandes superan a modelos hasta 20 veces su tamaño en ese punto de referencia.
Los pesos no cuantizados de 31B caben en una sola GPU Nvidia H100 de 80GB; las versiones cuantizadas funcionan en hardware de consumo.
Los cuatro modelos son multimodales, procesando nativamente video e imágenes, y están entrenados en más de 140 idiomas. Los modelos E2B y E4B además admiten entrada de audio nativa para reconocimiento de voz. Las ventanas de contexto son de 128K tokens para los modelos de borde y 256K para las dos variantes más grandes.
En cuanto a capacidad, Google destaca mejoras en el razonamiento de múltiples pasos, llamadas a funciones nativas y salida JSON estructurada para flujos de trabajo agentes, y generación de código fuera de línea. En cuanto a rendimiento, el Blog de Desarrolladores de Android señala que el modelo E2B funciona tres veces más rápido que el E4B, mientras que la familia de borde en general es hasta cuatro veces más rápida que las versiones anteriores de Gemma y utiliza hasta un 60% menos de batería.
Los modelos E2B y E4B también son la base para Gemini Nano 4, el modelo de próxima generación de Google para dispositivos en Android, que llegará a dispositivos de consumo más adelante este año.
Gemma ha acumulado más de 400 millones de descargas y más de 100,000 variantes creadas por la comunidad desde su primer lanzamiento, una cifra que Google señala como evidencia de la adopción por parte de los desarrolladores a gran escala.
Gemma 4 está disponible de inmediato en Hugging Face, Kaggle y Ollama, con los modelos de 31B y 26B accesibles a través de Google AI Studio y los modelos de borde a través de AI Edge Gallery.
La decisión de licencia Apache 2.0 es la señal comercial más significativa en el lanzamiento: elimina las restricciones que impedían algunas implementaciones empresariales y comerciales bajo los términos anteriores de Gemma, abriendo el ecosistema a una gama más amplia de casos de uso en producción.
Otros artículos
Google ha lanzado Gemma 4
Google ha lanzado Gemma 4, cuatro modelos de peso abierto desde E2B edge hasta 31B Dense, construidos a partir de la investigación de Gemini 3, lanzados bajo Apache 2.0.
