Para nadie es un secreto que Apple generó decepción con Apple Intelligence, su paraguas de funciones de IA generativa, por el retraso de la nueva Siri. La promesa se anunció, se mostró y después se aplazó. Y eso, para muchos usuarios, rompió un engranaje central: la confianza.
Además, el lanzamiento inicial de Apple Intelligence en 2024 solo en inglés y su llegada en español en primavera de 2025 alimentaron esa percepción de “todavía no”. Según el análisis que circula en el sector, el retraso de la nueva Siri dejó la mayor crisis de credibilidad de Apple en la era de Tim Cook, justo en el tema que hoy define a toda la industria.
Sin embargo, dentro de esa misma caja de herramientas hay una pieza clave que ya funciona y que Tim Cook viene señalando con pistas discretas. Se llama Visual Intelligence (análisis de imágenes en el iPhone) y, aunque no tenga el brillo mediático de un chatbot, revela un mecanismo más cercano a lo cotidiano.
Tim Cook declaró hace semanas que Visual Intelligence es una de sus funciones favoritas de Apple Intelligence y que, según él, también es de las preferidas por el público.
Para entenderla sin tecnicismos, conviene pensarla como el “cableado” de una casa. Siri sería la voz que te responde desde el living. Visual Intelligence, en cambio, es el interruptor que prende la luz cuando entrás a una habitación: no conversa, pero te da una respuesta inmediata donde hace falta.
Si Siri es el mayordomo, Visual Intelligence es la linterna bien cargada.
También te puede interesar:Apple Intelligence, Todos los detalles Anunciados en Apple Event¿Qué hace en la práctica? Usa la cámara del iPhone o una captura de pantalla como si fueran una ventana. Y desde ahí ejecuta acciones simples pero eficientes: traducción en tiempo real de letreros, identificación de animales u objetos y hasta la creación de eventos en el calendario con solo enfocar un cartel con fecha y horario.
Por eso el concepto es básico, pero el funcionamiento práctico resulta sólido. No te pide que aprendas un nuevo hábito. Te pide que apuntes.
En términos de disponibilidad, Visual Intelligence está a partir de los iPhone 15 Pro y modelos posteriores. Y en los iPhone 16 y sucesores tiene un acceso rápido mediante el botón de control de cámara, manteniéndolo pulsado, como si fuese un atajo físico a ese “ojo” digital.
Hay otra clave que explica por qué Apple insiste con esta función: Visual Intelligence también se alimenta de tecnología de Google. De hecho, el acuerdo entre Apple y Google para usar los modelos de Gemini (modelos de lenguaje para generar y entender texto) en Apple Intelligence fue confirmado hace aproximadamente mes y medio.
Ese movimiento tiene un sentido muy concreto. Gracias a Gemini, Apple puede acelerar los tiempos de desarrollo sin construir todos los modelos base desde cero. Liberada de ese trabajo pesado, puede concentrarse en lo que mejor sabe hacer: integración fina entre hardware y software, para que la IA no se sienta como una app más, sino como una función central del dispositivo.
Y acá aparece la pista más interesante: los dispositivos filtrados para el futuro —gafas, AirPods y pines con sensores— estarían pensados como ojos y oídos de la IA. No para reemplazar al iPhone, sino para acompañarlo, como extensiones que interpretan el entorno y devuelven ayuda contextual.
También te puede interesar:12 Días de OpenAI, Día 5: ChatGPT Llega al Ecosistema Apple con iOS y macOSEs decir: si Visual Intelligence ya sabe “ver”, esos accesorios serían el modo de llevar esa vista al mundo, sin tener el teléfono siempre en la mano.
Ahora bien, el historial reciente obliga a bajar la euforia. Se filtró que incluso cuando Apple parecía tener lista la nueva Siri para una versión concreta de iOS, internamente volvió a retrasarse. Y aunque el artículo sostiene que Siri sigue prevista para este año, la credibilidad no se repara con rumores.
La oportunidad está a la vista: Visual Intelligence es un engranaje que ya encaja en la rutina. Pero Apple tendrá que demostrar que, al sumar nuevos dispositivos y apoyarse en Gemini, la experiencia no queda en “potencial”, sino en utilidad real.
Porque al final, cuando se apaga la señal o falta el tiempo, lo que uno quiere no es magia: es un interruptor que funcione.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.