
Google I/o 2025 convierte a Gemini en el núcleo del ecosistema digital
Sin nuevos teléfonos inteligentes, pero con una nueva realidad. Google llevó a cabo quizás la presentación de IA más rica de su historia. Gemini ahora está en todas partes, desde la búsqueda y el navegador hasta el correo, las gafas inteligentes y la generación de videos. El mundo se ha vuelto notablemente más inteligente y un poco más extraño.
Hace un año, Google insinuó con cautela que Gemini era más que un modelo de lenguaje. Hoy ya no es un concepto, sino la base real de todo el ecosistema digital.
I / O 2025 fue el momento en que la IA salió de las interfaces y comenzó a administrarlas. En lugar de nuevos dispositivos, módulos, agentes, servicios y herramientas capaces no solo de mantener una conversación, sino también, por ejemplo, de hacer arreglos para que se reúna con un agente de bienes raíces mientras Mira una película.
La actualización más llamativa es el modo AI en la búsqueda de Google. La nueva pestaña hace que la búsqueda sea conversacional, flexible y Visual. Los usuarios ya están formulando consultas de dos a tres veces más largas, refinando los detalles y obteniendo respuestas detalladas y lógicas. La búsqueda reconoce texto, fotos, videos y voz, y la función de búsqueda profunda convierte las consultas en análisis completos.
Énfasis en la velocidad y la escala. Los nuevos modelos Gemini son más rápidos y precisos, y los servidores basados en TPU Ironwood ofrecen hasta 42,5 exaflops por módulo de cómputo. Es diez veces más potente que la generación anterior. El volumen de tokens procesados durante el año aumentó de 9,7 a 480 billones. El número de desarrolladores que utilizan Gemini ha alcanzado los 7 millones, cinco veces más que en 2024.
El modelo insignia Gemini 2.5 Pro recibió el modo Deep Think, diseñado para problemas complejos en matemáticas, código y lógica. Para tareas más cotidianas, se presenta la versión Gemini 2.5 Flash, que es más liviana, más barata y ya está disponible para los usuarios.
La IA ahora no solo responde, sino que también actúa. Gmail tiene respuestas inteligentes personalizadas. El modelo analiza la correspondencia y los documentos en Google Drive, selecciona el tono, agrega enlaces y adjunta los archivos deseados. En Google Workspace, puedes convertir tus presentaciones en vídeos con avatares de IA, crear podcasts y crear infografías.
En el frente Visual, las nuevas versiones de Imagen 4 y Veo 3. Veo ahora crea video con sonido en 24 idiomas, puede controlar la cámara y eliminar objetos. La aplicación Google Flow le permite armar un videoclip corto (hasta ocho segundos) y compilarlo en una escena completa.
De las novedades de hardware se presenta Project Aura. Las gafas inteligentes con Android XR reconocen objetos, muestran indicaciones, traducen el habla y admiten la navegación. El prototipo ya está funcionando. El desarrollo se lleva a cabo en colaboración Con xreal, Samsung y Gentle Monster.
También se presenta Google Beam, el sucesor de Project Starline. Es un sistema de videollamada 3D con seguimiento de movimiento preciso y traducción de voz en tiempo real. Hasta ahora solo funciona con Inglés y español y está disponible para los suscriptores de AI Pro y AI Ultra (el costo de este último es de $250 por mes).
Project Astra evoluciona como un asistente proactivo. Responde a lo que está sucediendo a través de la cámara: reconoce errores, identifica objetos y ejecuta acciones sin un comando explícito. En el modo agente, Gemini ya puede trabajar con sitios, filtros e interfaces. Los planes incluyen la expansión de funciones en Chrome, Search y API.
Entre las herramientas de nicho se encuentra Stitch, que genera interfaces por descripción de texto o boceto. El modo AI también está probando una función de ajuste virtual de ropa basada en fotos. Hasta ahora es un experimento, pero con un gran potencial para el comercio minorista en línea.
En este contexto, las actualizaciones de Android 16 y Wear OS 6 parecen modestas. La interfaz mejorada, las nuevas animaciones y la personalización son más un ajuste de fondo en una era en la que todo el enfoque está en la IA.
Gemini se está convirtiendo en la nueva capa digital: la interfaz entre el usuario y todo el ecosistema de Google. Esto ya no es un asistente, sino un mecanismo completo de toma de decisiones y acción.
Google ya no solo hace servicios. Ya es una plataforma donde la IA no es una función, sino una forma de interactuar con el mundo digital. El futuro ya no se anuncia, simplemente está habilitado de forma predeterminada.

Otros artículos






Google I/o 2025 convierte a Gemini en el núcleo del ecosistema digital
Sin nuevos teléfonos inteligentes, pero con una nueva realidad. Google llevó a cabo quizás la presentación de IA más rica de su historia. Gemini ahora está en todas partes, desde la búsqueda y el navegador hasta el correo, las gafas inteligentes y la generación de videos. El mundo se ha vuelto notablemente más inteligente y un poco más extraño.