Google acaba de enseñar el futuro inmediato de Gemini en Android: un asistente que no solo conversa, sino que ejecuta tareas reales dentro del móvil, paso a paso, y además solicita confirmación antes de comprar o reservar.
La compañía habla abiertamente de funciones “agénticas” capaces de encargarse de procesos multietapa como pedir comida o solicitar un coche, comenzando por los nuevos Pixel 10, Pixel 10 Pro y los recién anunciados Samsung Galaxy S26.
Lo que estamos viendo apunta a una transición clara: dejar atrás el concepto de “chatbot con respuestas brillantes” para dar paso a un asistente-operador que navega por aplicaciones y ejecuta flujos completos. Sin embargo, hay un elefante en la habitación: Apple ya mostró algo muy similar para Siri durante la WWDC 2024… y, hasta ahora, esas funciones siguen sin estar disponibles.
El mensaje entre líneas es directo: Google no quiere que percibas a Gemini como otro modelo. La narrativa gira en torno a un agente que entiende intención y contexto, y que sabe moverse por interfaces reales con botones, menús, formularios y confirmaciones, como lo haría cualquier usuario.
Esta visión encaja con lo que la compañía ya viene probando en otros entornos. De hecho, Gemini ha incorporado recientemente la capacidad de auto-navegar para usuarios en Google Chrome. Ya no se trata solo de generar texto o resumir páginas, sino de interactuar con la web como lo harías tú: buscar, entrar, seleccionar, rellenar campos y avanzar hasta completar una acción.

Trasladar esa lógica a Android es el siguiente paso natural. El móvil concentra las tareas pequeñas y cotidianas —pedir comida, reservar transporte, confirmar horarios— y también es donde más pereza da completar procesos largos. Si la IA puede absorber esa fricción, el cambio no es menor: se convierte en una capa operativa entre tú y las apps.
También te puede interesar:Apple prueba un nuevo Siri capaz de controlar aplicaciones solo con la vozSobre el escenario apareció Sameer Samat, presidente de Android en Google, mostrando cómo funcionaría este Gemini “agéntico”. El ejemplo elegido fue deliberadamente cotidiano: un chat familiar con opiniones cruzadas, cambios de última hora y el clásico “pide tú, que a mí me da igual”.
Samat pidió a Gemini que revisara el hilo de mensajes, dedujera qué debía encargarse y realizara el pedido a través de una app de reparto. La IA extrajo las preferencias de cada persona y las presentó en una ventana estructurada, casi como una lista de requisitos organizada automáticamente. En otras palabras, el trabajo tedioso de leer mensajes desordenados y convertirlos en algo accionable lo hizo el sistema, no el usuario.
Después, bastó con indicar por voz que completara el pedido y especificar una pizzería concreta. Gemini navegó por Grubhub mientras el proceso se mostraba en pantalla paso a paso, permitiendo ver cómo seleccionaba productos y configuraba opciones. El detalle clave llegó al final: Gemini no compra por su cuenta. Al terminar, envía una alerta para que el usuario revise el pedido y pulse el botón definitivo.
Ahí está la diferencia crucial entre autonomía total —que genera desconfianza— y automatización guiada, que resulta útil. La IA realiza el trabajo pesado; tú supervisas el último clic. Ese equilibrio es, probablemente, lo que definirá la adopción real de este tipo de asistentes.
Resulta imposible ver esta presentación sin recordar Apple Intelligence y las llamativas demos de Siri en la WWDC 2024. En aquel momento, Apple mostró un asistente capaz de entender lo que había en pantalla y actuar en consecuencia, como añadir automáticamente una dirección recibida en Mensajes a una ficha de contacto.
También te puede interesar:Actualización de Siri en Apple: Cómo Google Gemini Puede Impulsar su Inteligencia Artificial
También prometió acciones dentro de una app y entre varias aplicaciones, justo el terreno donde los asistentes tradicionales suelen quedarse cortos por falta de integración real. A eso se sumaba el llamado “contexto personal”: por ejemplo, preguntar cuándo aterriza el vuelo de tu madre y que Siri localizara la información en un correo y la mostrara al instante.
El problema es que, casi dos años después de aquellas demostraciones, ninguna de esas funciones ha llegado al público. Apple retrasó estas capacidades en marzo de 2025 e incluso retiró un anuncio publicitario donde las exhibía. Según información de Bloomberg, algunas podrían no ver la luz hasta iOS 27. En el mundo móvil, eso equivale a varios ciclos completos de hardware, cambios de hábitos y, sobre todo, expectativas que se enfrían.
Ahora bien, tampoco conviene comprar el entusiasmo sin mirar la letra pequeña. Google describe este despliegue inicial como una beta, lo que implica que es razonable esperar fallos de navegación, interfaces que cambian sin previo aviso y decisiones inesperadas en momentos críticos.
Una demo controlada no refleja la complejidad infinita de móviles reales, aplicaciones que se actualizan cada semana y usuarios que cambian de opinión a mitad de proceso. A eso se suma una incógnita estructural: ¿cuántos desarrolladores estarán dispuestos a permitir que Gemini “conduzca” su aplicación?

Google intenta acotar expectativas señalando que Gemini funcionará inicialmente en apps seleccionadas de transporte y comida. No se trata de acceso universal ni mucho menos, al menos en esta primera etapa. La estrategia parece clara: empezar en verticales donde la fricción es alta y el valor de la automatización resulta evidente.
Si Google logra lanzar estas funciones pronto y mantener una experiencia consistente, podría colocarse por delante en la carrera más visible: la del asistente que no te explica cómo hacer algo, sino que lo hace por ti. Sin embargo, el verdadero listón no es la demo, sino el hábito. La pregunta no es si funciona en el escenario, sino si acabarás pidiendo la cena, reservando transporte o gestionando tu día de esta forma.
Habrá que ver si la beta resiste el mundo real. Lo que sí es evidente es que la presión sobre Apple ya no es teórica: es la que se siente cuando tu competidor empieza a entregar funciones concretas mientras tú sigues mostrando lo que algún día llegará.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.