Para nadie es un secreto que Apple generó decepción con Apple Intelligence, su paraguas de funciones de IA generativa, por el retraso de la nueva Siri. La promesa se anunció, se mostró y después se aplazó. Y eso, para muchos usuarios, rompió un engranaje central: la confianza.

Además, el lanzamiento inicial de Apple Intelligence en 2024 solo en inglés y su llegada en español en primavera de 2025 alimentaron esa percepción de “todavía no”. Según el análisis que circula en el sector, el retraso de la nueva Siri dejó la mayor crisis de credibilidad de Apple en la era de Tim Cook, justo en el tema que hoy define a toda la industria.

Sin embargo, dentro de esa misma caja de herramientas hay una pieza clave que ya funciona y que Tim Cook viene señalando con pistas discretas. Se llama Visual Intelligence (análisis de imágenes en el iPhone) y, aunque no tenga el brillo mediático de un chatbot, revela un mecanismo más cercano a lo cotidiano.

Tim Cook declaró hace semanas que Visual Intelligence es una de sus funciones favoritas de Apple Intelligence y que, según él, también es de las preferidas por el público.

También te puede interesar:Apple Potencia la Automatización: Shortcuts Estrena Acciones Inteligentes con IA

Para entenderla sin tecnicismos, conviene pensarla como el “cableado” de una casa. Siri sería la voz que te responde desde el living. Visual Intelligence, en cambio, es el interruptor que prende la luz cuando entrás a una habitación: no conversa, pero te da una respuesta inmediata donde hace falta.

Si Siri es el mayordomo, Visual Intelligence es la linterna bien cargada.

¿Qué hace en la práctica? Usa la cámara del iPhone o una captura de pantalla como si fueran una ventana. Y desde ahí ejecuta acciones simples pero eficientes: traducción en tiempo real de letreros, identificación de animales u objetos y hasta la creación de eventos en el calendario con solo enfocar un cartel con fecha y horario.

Por eso el concepto es básico, pero el funcionamiento práctico resulta sólido. No te pide que aprendas un nuevo hábito. Te pide que apuntes.

También te puede interesar:Apple Potencia la Automatización: Shortcuts Estrena Acciones Inteligentes con IA
También te puede interesar:La WWDC 2025 Deja Claro: Siri Sigue por Detrás de Gemini y Copilot en Inteligencia Artificial

En términos de disponibilidad, Visual Intelligence está a partir de los iPhone 15 Pro y modelos posteriores. Y en los iPhone 16 y sucesores tiene un acceso rápido mediante el botón de control de cámara, manteniéndolo pulsado, como si fuese un atajo físico a ese “ojo” digital.

Hay otra clave que explica por qué Apple insiste con esta función: Visual Intelligence también se alimenta de tecnología de Google. De hecho, el acuerdo entre Apple y Google para usar los modelos de Gemini (modelos de lenguaje para generar y entender texto) en Apple Intelligence fue confirmado hace aproximadamente mes y medio.

Ese movimiento tiene un sentido muy concreto. Gracias a Gemini, Apple puede acelerar los tiempos de desarrollo sin construir todos los modelos base desde cero. Liberada de ese trabajo pesado, puede concentrarse en lo que mejor sabe hacer: integración fina entre hardware y software, para que la IA no se sienta como una app más, sino como una función central del dispositivo.

Los “ojos y oídos” que se asoman

Y acá aparece la pista más interesante: los dispositivos filtrados para el futuro —gafas, AirPods y pines con sensores— estarían pensados como ojos y oídos de la IA. No para reemplazar al iPhone, sino para acompañarlo, como extensiones que interpretan el entorno y devuelven ayuda contextual.

Es decir: si Visual Intelligence ya sabe “ver”, esos accesorios serían el modo de llevar esa vista al mundo, sin tener el teléfono siempre en la mano.

La cautela después del tropiezo

Ahora bien, el historial reciente obliga a bajar la euforia. Se filtró que incluso cuando Apple parecía tener lista la nueva Siri para una versión concreta de iOS, internamente volvió a retrasarse. Y aunque el artículo sostiene que Siri sigue prevista para este año, la credibilidad no se repara con rumores.

La oportunidad está a la vista: Visual Intelligence es un engranaje que ya encaja en la rutina. Pero Apple tendrá que demostrar que, al sumar nuevos dispositivos y apoyarse en Gemini, la experiencia no queda en “potencial”, sino en utilidad real.

Porque al final, cuando se apaga la señal o falta el tiempo, lo que uno quiere no es magia: es un interruptor que funcione.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios