La conferencia anual de desarrolladores de Google, I/O 2025, que tuvo lugar ayer día 20 de mayo, ha dejado una huella imborrable en el panorama tecnológico. Desde el momento en que Sundar Pichai, CEO de Google, subió al escenario, el mensaje fue claro y contundente: la inteligencia artificial no es solo una característica más, sino el pilar fundamental que impulsa cada innovación de la compañía. Este evento, accesible globalmente de forma online, superó todas las expectativas, demostrando que Google está en una «nueva fase del cambio de plataforma de la IA».
Las cifras hablan por sí solas: de 9.7 billones de tokens procesados al mes el año pasado, Google ha escalado a más de 480 billones este año, un aumento de 50 veces. La adopción de Gemini por parte de los desarrolladores se ha quintuplicado, superando los 7 millones, y la aplicación Gemini ya cuenta con más de 400 millones de usuarios activos mensuales. Esta expansión masiva de la IA no es una coincidencia, sino la materialización de una estrategia de «IA primero» que Google ha estado cultivando durante años. La IA ya no es un añadido, sino la capa fundamental sobre la que se construye el futuro de Google, una apuesta clara para mantener su liderazgo en un mercado cada vez más competitivo.
Las novedades presentadas en I/O 2025 no son meras mejoras incrementales; representan una transformación fundamental en cómo interactuamos con la tecnología. La IA de Google busca integrarse de forma fluida y casi invisible en nuestra vida digital, haciéndola más eficiente, creativa y proactiva, capaz de tomar acciones en nombre del usuario.
Gemini: El Corazón Inteligente de Google
En el epicentro de esta transformación se encuentra Gemini, la familia de modelos de IA de Google, que recibió actualizaciones significativas y se posiciona como el cerebro de la nueva era de Google.
Modelos Avanzados: Potencia y Eficiencia
Google anunció que Gemini 2.5 Flash ha salido de la fase de previsualización, lo que implica mejoras sustanciales en rendimiento y eficiencia. Este modelo está diseñado para tareas que requieren velocidad y agilidad. Complementando a Flash, Gemini 2.5 Pro se refuerza con un nuevo modo de razonamiento mejorado llamado «Deep Think». Este modo experimental, disponible para suscriptores de Google AI Ultra, lidera en benchmarks de matemáticas, código y multimodalidad. La existencia de estos dos modelos, con sus perfiles de rendimiento distintos, junto con los nuevos planes de suscripción (AI Pro y AI Ultra), revela una estrategia de segmentación del mercado por parte de Google, diferenciando sus modelos por capacidades técnicas y tipo de usuario.
Creatividad Generativa: De la Idea a la Realidad con IA
Google está democratizando la creación de contenido de alta calidad con sus modelos generativos. La última versión del modelo de generación de imágenes, Imagen 4, se está implementando en la aplicación Gemini, prometiendo una calidad de detalle superior y, crucialmente, mejores resultados en la generación de texto y tipografía dentro de las imágenes. Esto representa un avance significativo para la creación de contenido visual que requiere precisión textual.
En el ámbito del video, Veo 3 se posiciona como una de las estrellas de la conferencia. Es la primera iteración de este modelo que puede generar videos con sonido nativo, incluyendo efectos de sonido, ambientes y diálogos. Esta capacidad añade una dimensión completamente nueva a la creación de video impulsada por IA, permitiendo narrativas más ricas y envolventes.
Construido sobre Veo, Imagen y Gemini, Flow es una nueva herramienta de «cine con IA» diseñada para creativos. Permite generar y editar clips de video, extender tomas existentes manteniendo la consistencia visual y narrativa, y controlar movimientos de cámara y perspectivas. Flow está disponible para suscriptores de Google AI Pro y Ultra. La evolución de Imagen y Veo, especialmente la adición de sonido nativo en Veo 3 y las herramientas de edición en Flow, va más allá de la simple generación de contenido, posicionando la IA de Google como una herramienta colaborativa que asiste en el proceso creativo.
Asistencia en Tiempo Real: Gemini te Ve y te Escucha
Gemini Live, que ya estaba disponible en Pixel, ahora se expande a todos los dispositivos Android e iOS compatibles a través de la aplicación Gemini. Una de las novedades más impactantes es la incorporación de las capacidades de Project Astra, la visión de Google para un asistente de IA universal. Esto permite a Gemini responder preguntas sobre capturas de pantalla y video en vivo capturado por la cámara del teléfono. Las demostraciones mostraron a Project Astra controlando un teléfono Android, navegando aplicaciones y realizando llamadas. La capacidad de Gemini para «ver» y «entender» el mundo a través de la cámara del teléfono representa un salto cualitativo, transformando a Gemini de un mero chatbot a un asistente contextual y proactivo.
Integración Ubicua: Gemini en Cada Esquina Digital
Google está llevando a Gemini a cada rincón de la experiencia digital. La integración de Gemini en Chrome permitirá al asistente de IA responder preguntas sobre las pestañas abiertas, siendo accesible desde la barra de tareas y un nuevo menú. La navegación por sitios web se implementará más adelante este año. Los suscriptores de AI Pro y Ultra tendrán acceso anticipado a esta función.
Además, Project Mariner estará disponible para suscriptores de Google AI Ultra. Los usuarios de la aplicación Gemini obtendrán un «Modo Agente» impulsado por Mariner que puede realizar tareas navegando por la web. Google demostró cómo este modo puede gestionar hasta 10 tareas simultáneamente, desde investigación hasta reservas y compras. La combinación de Gemini en Chrome y Project Mariner/Agent Mode revela una visión donde la IA pasa de ser reactiva a proactiva, capaz de anticipar necesidades y actuar de forma autónoma.
Reinventando la Búsqueda con IA
Google I/O 2025 marcó un cambio fundamental en cómo funciona la búsqueda, moviéndola de una simple lista de enlaces a una conversación interactiva con una IA.
AI Mode en Google Search: Una Nueva Experiencia
Google anunció el lanzamiento de «AI Mode» para todos los usuarios en EE. UU. Este modo representa una «reimaginación total de la Búsqueda», permitiendo consultas más largas y complejas, así como la posibilidad de hacer preguntas de seguimiento. Las nuevas características debutarán primero en AI Mode antes de llegar a AI Overviews.
Personalización y Contexto: Búsqueda a tu Medida
AI Mode pronto podrá utilizar el «contexto personal» del usuario, como información de Gmail, para proporcionar «resultados adaptados» que reflejen sus preferencias. La búsqueda se vuelve intrínsecamente más relevante al incorporar el conocimiento que Google tiene sobre el usuario (con su permiso), pasando de una búsqueda genérica a una experiencia altamente personalizada.
Funcionalidades Avanzadas: Más Allá de los Enlaces
AI Mode ganará la capacidad de crear gráficos y tablas personalizados para visualizar consultas deportivas y financieras. Además, «Deep Search» llegará a AI Mode, similar a la función «Deep Research» de Gemini, para explorar temas en profundidad. «Search Live» utilizará las capacidades de Project Astra para ofrecer una experiencia similar a Gemini Live directamente en la interfaz de búsqueda. Estas funciones avanzadas van más allá de la simple recuperación de información, ofreciendo análisis, visualización y experiencias interactivas directamente en la interfaz de búsqueda.
Compras Inteligentes: Asistencia Agente en el Retail
Las capacidades de compra llegan a AI Mode con un panel que se actualiza con productos relevantes a medida que se refina la búsqueda. Una función de «prueba virtual» permitirá a los usuarios subir una foto de sí mismos para ver cómo les quedaría una prenda, teniendo en cuenta cómo se pliegan y estiran los materiales en diferentes tipos de cuerpo. Una capacidad «buy for me» (comprar por mí) permitirá a Google añadir artículos al carrito y completar el pago con Google Pay, con la aprobación del usuario. Google está posicionando su IA como un asistente de compras integral, desde la inspiración y la visualización hasta la finalización de la compra.
Expansión Global: La IA para Todos
Los «AI Overviews» se están expandiendo a más de 200 países y en más de 40 idiomas, llevando los beneficios de la IA a una escala global y haciendo que la búsqueda conversacional y generativa sea accesible para millones de usuarios en todo el mundo.
Productividad Potenciada en Google Workspace
La inteligencia artificial se integra profundamente en las herramientas de productividad de Google, transformando la forma en que trabajamos y colaboramos.
Gmail: Más que un Buzón de Entrada
Gmail recibe «Respuestas Inteligentes Personalizadas» que detectan y se adaptan al contexto, tono y estilo del usuario, incluso sus palabras favoritas. Además, se introducen funciones de «Limpieza de Bandeja de Entrada» y «Programación de Citas» integradas en el calendario. La IA en Gmail va más allá de la conveniencia, buscando imitar el estilo de comunicación del usuario y automatizar tareas de gestión de correo.
Google Meet: Rompiendo Barreras Idiomáticas
Google Meet obtiene una opción de traducción en tiempo real, capaz de igualar el tono y la cadencia del hablante mientras traduce. Inicialmente, esta función estará en beta para español-inglés para suscriptores de AI Pro y Ultra. Esta función es un cambio de juego para la colaboración global, eliminando las barreras del idioma en reuniones virtuales.
Google Docs: Gemini como Co-autor Inteligente
Google Docs permitirá el «grounding» de las respuestas del panel lateral de Gemini, lo que significa que las respuestas de la IA podrán vincularse a contenido específico del documento para mayor precisión y relevancia. Gemini se convierte así en un asistente de escritura más fiable y contextual.
Google Vids: La Narración Visual al Alcance de Todos
Google Vids permitirá convertir una presentación de diapositivas completa en un video, con guiones, voces en off y animaciones generadas por IA. También se introduce la creación de «Avatares IA» con solo subir un guion, y nuevas características de edición de audio como «Transcript Trim» y «Balance Sound». Google Vids democratiza la producción de video profesional, haciendo que la creación de contenido visual sea accesible para usuarios sin experiencia en edición.
El Futuro de la Interacción: Hardware y Experiencias Inmersivas
Google está sentando las bases para la próxima generación de computación espacial, donde la IA se fusiona con el hardware para ofrecer experiencias inmersivas y contextuales.
Android XR: La Realidad Extendida Impulsada por Gemini
Google mostró más demostraciones de sus gafas Android XR y anunció una asociación expandida con Samsung. La integración de Gemini en estas gafas y auriculares permitirá que los dispositivos sean «más fáciles de usar y más potentes al entender lo que se está viendo y tomar acciones en nombre del usuario». Se destacó «Project Aura» de Xreal como un kit de desarrollo para Android XR, incluyendo nuevas gafas AR.
Google Beam: Videoconferencias 3D Hiperrealistas
Anteriormente conocido como Project Starline, Google Beam es ahora una «plataforma de comunicación por video 3D con IA». Utiliza un conjunto de seis cámaras para capturar todos los ángulos y una IA que los une, con seguimiento de cabeza milimétrico a 60 fps, proyectando la imagen en una pantalla de campo de luz que no requiere equipo especial. HP fabricará el primer dispositivo. Google Beam busca revolucionar las videollamadas, haciéndolas sentir mucho más inmersivas y personales.
Android 16 y Wear OS 6: Fundamentos Más Sólidos y Expresivos
Aunque Google dedicó un evento separado a Android, se mencionaron novedades como la interfaz «Material 3 Expressive» para Android 16, actualizaciones de seguridad y una mayor integración de Gemini. Android 16 también incluye Live Updates, mejoras en cámara y medios, y avances en accesibilidad. La próxima versión de la plataforma para smartwatches, Wear OS 6, presenta la nueva interfaz «Material 3 Expressive», con diseño dinámico de color, animaciones más fluidas y una mejora de hasta el 10% en la duración de la batería. También introduce nuevos componentes de interfaz de usuario optimizados para pantallas redondas y mejoras en los controles multimedia.
Herramientas para Creadores y Desarrolladores: Potenciando la Innovación
Google está proporcionando un conjunto sin precedentes de herramientas y modelos para desarrolladores, permitiéndoles construir la próxima generación de aplicaciones.
Jules: El Agente de Codificación Autónomo
Google anunció a Jules, un «verdadero agente de codificación» que «lee tu código, entiende tu intención y se pone a trabajar» en segundo plano. Jules puede escribir pruebas, construir nuevas características, corregir errores y actualizar dependencias. Está disponible en beta pública a nivel mundial. Jules representa un paso significativo hacia la automatización inteligente en el desarrollo de software.
Gemini Code Assist: Asistencia de Codificación de Próxima Generación
Ahora disponible de forma general para individuos y para GitHub, Gemini Code Assist es impulsado por Gemini 2.5. Google afirma que esta herramienta aumenta significativamente las probabilidades de éxito de los desarrolladores en tareas comunes en 2.5 veces, mejorando su productividad al proporcionar asistencia de codificación inteligente y contextual.
Firebase Studio y Stitch: Creación de Apps con IA Simplificada
Firebase Studio es un nuevo espacio de trabajo de IA basado en la nube que facilita la creación de aplicaciones de IA de pila completa, permitiendo incluso llevar diseños de Figma a la vida. Por su parte, Stitch es una nueva herramienta impulsada por IA que genera diseños de interfaz de usuario de alta calidad y el código frontend correspondiente para escritorio y móvil, a partir de descripciones en lenguaje natural o indicaciones de imagen.
SynthID Detector: Identificando Contenido Generado por IA
En un mundo con creciente contenido generado por IA, Google lanzó un «portal de verificación» llamado SynthID Detector para ayudar a las personas a identificar contenido generado por IA. Permite subir contenido y verificar si tiene la marca de agua SynthID. La introducción de SynthID Detector es una declaración de principios, invirtiendo en herramientas para la verificación y construyendo confianza en la IA.
Novedades en Google Play: Mejoras para Desarrolladores y Usuarios
Google Play también recibió actualizaciones significativas. Los desarrolladores de aplicaciones ahora pueden «detener lanzamientos completamente en vivo» que presenten un problema, evitando que la actualización se ofrezca a usuarios que aún no la han instalado. Google continúa su impulso por una Play Store «rica en contenido» con espacios curados que celebran intereses estacionales y perennes. Nuevas páginas de exploración por temas presentarán contenido «oportuno, relevante y visualmente atractivo», y las «Colecciones de Google Play» añaden una nueva categoría de Viajes y se expanden a más mercados.
Nuevos Planes de Suscripción AI: Acceso a la Vanguardia de Gemini
Google está consolidando y expandiendo su oferta de suscripciones de IA, reflejando el valor creciente de sus modelos avanzados y servicios premium.
Google AI Pro
El plan existente «AI Premium» ha sido renombrado a Google AI Pro, manteniendo su precio de $19.99 al mes. Ofrece límites de uso más altos que el nivel gratuito y continuas adiciones de nuevas características. Los suscriptores de AI Pro tendrán acceso a las capacidades de creación de películas con IA en Flow (con el modelo Veo 2) y acceso anticipado a Gemini en Chrome. Google también está expandiendo el acceso gratuito a Google AI Pro por un año académico para estudiantes universitarios en EE. UU., Japón, Brasil, Indonesia y Reino Unido.
Google AI Ultra
Se introduce un nuevo nivel de suscripción premium, Google AI Ultra, posicionado como el «pase VIP a la IA de Google». Su costo es de $249.99 al mes, con una oferta introductoria del 50% de descuento durante los primeros tres meses para los nuevos suscriptores. Este plan ofrece acceso temprano y máximo a las capacidades de IA más avanzadas y de vanguardia de Google.
Los beneficios clave incluyen:
- Acceso mejorado a la aplicación Gemini con los límites de uso más altos para Deep Research y generación de video con Veo 2, con acceso anticipado a Veo 3.
- Acceso a «Deep Think» en Gemini 2.5 Pro.
- Acceso a Flow, la herramienta de cine con IA, con los límites de uso más altos, incluyendo generación de video 1080p y controles de cámara avanzados.
- Acceso a Whisk, una herramienta de visualización que transforma imágenes en videos de ocho segundos.
- Acceso a Project Mariner y el «Modo Agente» experimental para gestionar tareas complejas.
- Acceso a Gemini en las aplicaciones de Workspace (Gmail, Docs, Vids) y acceso anticipado a Gemini en Chrome.
- 30 TB de almacenamiento en Google Photos, Drive y Gmail.
- Una suscripción individual a YouTube Premium.
Este plan está dirigido a cineastas, desarrolladores, profesionales creativos y usuarios que demandan el más alto nivel de acceso y las capacidades más potentes del ecosistema de IA de Google.
Conclusión: Un Futuro Impulsado por la Inteligencia Artificial
Google I/O 2025 ha sido, sin lugar a dudas, la conferencia de la inteligencia artificial. Desde la evolución de Gemini hasta su infiltración en cada producto y servicio, Google ha demostrado su compromiso inquebrantable con la IA como el motor de su futuro. Las novedades abarcan desde la mejora de modelos fundacionales hasta la creación de herramientas de producción de contenido, la redefinición de la búsqueda, la optimización de la productividad y la exploración de nuevas fronteras en hardware y experiencias inmersivas.
La visión de Google es clara: una IA que no solo responde, sino que anticipa, aprende, actúa y se integra de forma tan natural en nuestras vidas que se vuelve casi invisible. Google busca construir un «mundo modelo» con Gemini, capaz de planificar, imaginar y simular. La IA no es solo una función; es la nueva interfaz. La profundidad y amplitud de la integración de Gemini en todos los productos de Google (Search, Workspace, Chrome, Android, XR) sugieren que Google está posicionando la IA no solo como una aplicación, sino como una capa fundamental que orquesta y potencia todas las interacciones digitales.
Para los usuarios, esto significa una experiencia digital más fluida, personalizada y potente, liberando tiempo y potenciando la creatividad. Para los desarrolladores, Google está proporcionando un conjunto sin precedentes de herramientas y modelos, desde agentes de codificación autónomos hasta plataformas de desarrollo de IA, que les permitirán construir la próxima generación de aplicaciones. Sin embargo, también es crucial reflexionar sobre las implicaciones de privacidad, seguridad y el equilibrio entre la automatización y el control humano en este futuro tan asistido por la IA. Google ha mostrado un compromiso con la IA responsable a través de herramientas como SynthID, pero el diálogo sobre estas implicaciones continuará siendo vital.
Aquí te dejo el vídeo completo de la sesión
¿Qué te par cen todas estas novedades?
Te leo en comentarios y si te ha parecido interesante, no olvides compartirlo ☺️


