Apple está preparando un cambio importante en su asistente de voz, y todo apunta a que la búsqueda en el iPhone dará un salto notable. Te contamos lo esencial sin destripar las claves: verás por qué la carrera por la IA en móviles se ha puesto seria, qué papel juega Google y cómo podría afectarte en el día a día. Si usas Siri a menudo, esto te interesa.
La compañía estudia integrar una herramienta de búsqueda web en Siri apoyada en Google Gemini, el conjunto de modelos de IA de Google. La idea es ampliar lo que hoy te ofrece el asistente de voz para que puedas preguntar casi cualquier cosa y recibir una respuesta completa, bien presentada y con menos pasos.
Según Bloomberg, Apple y Google han firmado un acuerdo para que Apple pruebe un modelo de IA de Google dentro de Siri. La compañía sigue midiendo si sus propios modelos alcanzan el nivel que necesita para competir con los motores de respuestas de OpenAI, Perplexity y el propio Google. La apuesta es grande y el listón está alto.
El rediseño de Siri se ha pospuesto hasta 2026. Apple busca tiempo para afinar la tecnología, cerrar la integración y elevar la precisión. El objetivo es que, cuando lo tengas en el iPhone, no sientas que pruebas una beta, sino una experiencia sólida y útil desde el primer día.
Con todo, este retraso refleja una realidad: la competencia aprieta. OpenAI, Perplexity y Google marcan el ritmo en respuestas con IA, y Siri debe ponerse a su altura en calidad de resultados, velocidad y comprensión del contexto.
La nueva experiencia de búsqueda en iPhone promete ir más allá del simple enlace azul. El plan es combinar texto, fotos, vídeos y puntos de interés locales en una respuesta clara, y sumar una función de resumen con IA para que no tengas que abrir varias páginas si no quieres.
También te puede interesar:Apple prueba un nuevo Siri capaz de controlar aplicaciones solo con la vozImagina que preguntas a Siri por un restaurante nuevo: verás una tarjeta con la reseña esencial, un mapa con la zona, una foto destacada y un resumen de opiniones. Si pides una explicación técnica o un “cómo se hace”, la IA te mostrará los puntos clave, ejemplos y, si procede, recomendaciones locales.
Si la prueba sale bien, Apple podría llevar Google Gemini también a Safari y a la búsqueda Spotlight. En iOS, Spotlight ya había dado pasos para ofrecer respuestas rápidas sobre actores, músicos, series y películas, y así evitar búsquedas web clásicas. Esa función se quedaba corta para consultas más complejas.
Hoy los chatbots con IA resuelven una gama mucho más amplia de temas que lo que encontrabas antes en sitios como Wikipedia. Con la nueva base, Siri y Spotlight podrían responder cuestiones técnicas, planes de viaje, comparativas de productos y, por supuesto, dudas locales con datos actualizados.
La gran duda interna de Apple ha sido si sus modelos de IA actuales bastan para que Siri compita con las mejores soluciones del mercado. Por eso explora Gemini. Te interesa porque, al final, lo que quieres son respuestas certeras, rápidas y bien presentadas en el iPhone, sin dar rodeos ni pelearte con menús.
No todo depende del modelo. Pesan la integración con el sistema, la privacidad, el rendimiento en hardware y la experiencia final. Si Apple ajusta estas piezas, Siri puede recuperar terreno frente a las opciones de OpenAI, Perplexity y Google.
La futura Siri podrá acceder a datos personales para ayudarte a navegar por el dispositivo con la voz. Hablamos de cosas como mensajes, calendarios o correos, siempre con permisos claros. La meta es que puedas pedir acciones concretas y el asistente las ejecute sin tocar la pantalla.
También te puede interesar:¿Qué Trae Google I/O 2025?: Actualizaciones en Gemini, Android 16 e Inteligencia ArtificialTendrás controles para afinar qué comparte Siri y qué no. Apple suele priorizar el procesamiento local cuando es posible y ofrecer opciones de revisión. Aquí, el equilibrio entre utilidad y privacidad será clave.
Si la integración de Google Gemini en Siri convence a Apple, verás funciones similares en otras áreas del sistema como Safari y Spotlight. Consulta, resume y navega, sin saltar entre pestañas. Y cuando necesites detalle, tendrás fuentes ampliadas a un toque.
Mientras llega 2026, lo razonable es esperar mejoras graduales y pruebas controladas. Con todo, la dirección es clara: Siri quiere convertirse en tu puente entre la información de la web, tus apps y tus datos personales, con una búsqueda en iPhone más directa y, en muchos casos, instantánea.
En pocas palabras, Siri apunta a una evolución real: búsqueda en iPhone con IA de nivel, respuestas con texto, fotos, vídeos y puntos de interés, resúmenes útiles y acciones por voz que tocan todas tus apps. El gran salto llegaría en 2026, tras la prueba con Google Gemini. Si Apple logra el equilibrio entre potencia y privacidad, vas a poder preguntar, entender y actuar mucho más rápido desde tu iPhone.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.