¿Cuántas veces una app parece inteligente, pero por dentro sigue viéndose como una pantalla fría? Esa distancia, pequeña pero constante, es la que Google parece querer recortar con Gemini: hacer que hablar con una IA se sienta menos como llenar un formulario y más como activar algo vivo.

El hallazgo surge de unas capturas filtradas en Reddit y verificadas por Android Authority. Las imágenes revelan un posible rediseño profundo de Google Gemini, el asistente de inteligencia artificial de la compañía, con fondos animados, capas semitransparentes y una respuesta visual mucho más fluida.

El mecanismo apunta a cambiar la sensación de uso.  Como si la pantalla tuviera pulso propio

Además, hay una pieza clave que llama la atención: por ahora esta actualización parece verse solo en iPhone y de forma muy limitada. Es decir, no hay despliegue masivo ni señales claras de llegada inmediata a Android, algo llamativo tratándose de un producto central de Google.

Lo nuevo no está solo en la pintura. El mecanismo apunta a cambiar la sensación de uso. En vez de una interfaz plana, Gemini muestra un fondo oscuro con partículas en rosa y magenta que reaccionan a lo que el usuario escribe, como si la pantalla tuviera pulso propio.

También te puede interesar:Google Rediseña Gemini en iPhone con Liquid Glass y Nuevas Funciones de IA

Esa estética se acerca a lo que se conoce como “Liquid Glass” (capas translúcidas con profundidad). Traducido: superficies que parecen vidrio, transiciones suaves y una sensación de relieve. No cambia la inteligencia del modelo por sí sola, pero sí el cableado visible con el que el usuario se orienta.

El nuevo “+” como tablero central

También hay un cambio práctico, y quizá más importante que el visual. Google rediseña el botón “+” de la parte inferior para convertirlo en una central de herramientas. Lo que antes estaba disperso en varios rincones ahora quedaría reunido en un único menú.

Google rediseña el botón “+” de la parte inferior del iPhone para convertirlo en una central de herramientas

Desde ahí se podría acceder a fotos, cámara, generación y edición de imágenes, creación de música, Canvas (espacio de trabajo para código y presentaciones), investigación avanzada, aprendizaje guiado y subida de archivos. En términos domésticos, es como pasar de tener los utensilios repartidos por toda la cocina a colocarlos en un solo cajón bien rotulado.

Ese detalle revela una oportunidad clara. Cuando una IA suma funciones, el riesgo no es solo técnico: también puede volverse confusa. Centralizar accesos actúa como un engranaje silencioso que reduce fricción y hace que el usuario encuentre antes la herramienta correcta.

También te puede interesar:Google Rediseña Gemini en iPhone con Liquid Glass y Nuevas Funciones de IA
También te puede interesar:Google lanza las funciones de vídeo en tiempo real de Gemini

Por ahora, eso sí, el despliegue es gradual. Usuarios de Reddit han señalado que muchos todavía no tienen acceso. Esa estrategia encaja con movimientos previos de Google, que ya había limitado la entrada a Gemini por la alta demanda de su modelo 3 Pro.

No hay confirmación oficial sobre por qué iOS recibió primero este rediseño. Se plantea que puede ser una prueba de impacto visual, una decisión de tiempos de desarrollo o un ensayo controlado antes de abrir la puerta a más dispositivos. Pero, de momento, Android sigue sin fecha.

Lo que cambia para el usuario

La novedad, entonces, no es solo estética. Este posible rediseño sugiere que Google quiere que Gemini deje de parecer una caja de texto con extras y se convierta en una herramienta con respuesta inmediata, más cercana a un panel de control que a una simple ventana de chat.

Si esa dirección se confirma, la IA gana algo decisivo: claridad. Y en tecnología, a veces el verdadero avance no es añadir más botones, sino colocar cada pieza en el lugar donde por fin tiene sentido.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios