Cuando un líder de diseño cambia de empresa, casi siempre pasa algo interesante. Y cuando ese líder viene de Apple y se va directo a Meta para trabajar en gafas inteligentes con IA y cascos de realidad virtual, las expectativas suben todavía más. Aquí no estamos hablando solo de un cambio de empleo, sino de un movimiento que puede marcar cómo vas a usar la realidad aumentada y la inteligencia artificial en tu día a día.
Para entender el impacto, lo primero es saber quién es Alan Dye. Durante la última década ha sido el responsable del equipo de diseño de interfaz de usuario de Apple, es decir, la persona que ha guiado cómo se ven y cómo se usan iOS, iPadOS o macOS. Mucho de lo que haces casi sin pensar en la pantalla de tu móvil viene marcado por decisiones suyas y de su equipo.

Que alguien con ese perfil se vaya a Meta no es un simple cambio de logo en su ficha. Su fichaje se considera dentro del sector una incorporación muy grande para Meta, porque refuerza justo la parte donde más dudas genera la compañía: el diseño fino de las interfaces y la experiencia de uso. Cuando piensas en futuras gafas inteligentes con IA, necesitas que la tecnología funcione, pero también que sea cómoda, clara y agradable de usar.
Meta está empujando fuerte hacia productos que tú puedas llevar encima o usar en casa: gafas inteligentes, cascos de realidad virtual y otros dispositivos de consumo basados en realidad extendida. La llegada de Alan Dye encaja exactamente con ese giro. La empresa no solo quiere más potencia de cálculo, también quiere interfaces que puedan competir con el nivel de Apple.
Dye va a centrarse en mejorar las funciones de inteligencia artificial en estos dispositivos. Esto significa pensar cómo ves, activas y controlas esas funciones cuando llevas unas gafas inteligentes con IA o un casco VR. ¿Te salta un asistente por voz? ¿Ves sugerencias flotando sobre el mundo real? Ese tipo de decisiones de diseño son las que definirán si te apetece usar esos productos cada día o los dejas en un cajón.
Otro dato clave es a quién reporta Alan Dye dentro de Meta. No va a un equipo intermedio, sino que informará directamente a Andrew Bosworth, el director de tecnología (CTO) de Meta. Esto coloca el diseño de interfaces y la inteligencia artificial en una línea de decisión muy alta dentro de la empresa.
También te puede interesar:Meta fue sorprendida manipulando benchmarks de IACuando el responsable de gafas inteligentes con IA y realidad virtual habla de tú a tú con el CTO, el diseño deja de ser un adorno y se convierte en parte central de la estrategia. Eso también añade presión: las próximas generaciones de dispositivos de Meta van a tener que demostrar resultados claros para justificar este nivel de apuesta por el diseño.
Este movimiento no solo afecta a Meta, también toca el corazón de Apple. La marcha de Alan Dye abre hueco en un puesto muy delicado: el liderazgo del diseño de interfaz. Apple no ha tardado en mover ficha y ha escogido a Steve Lemay como sustituto directo.
Tim Cook ha destacado que Lemay ha tenido “un papel clave en el diseño de todas las interfaces principales de Apple desde 1999”. Eso implica que lleva más de dos décadas marcando la experiencia de uso en productos tan distintos como el iPod, el iPhone o el Apple Watch. Es decir, Apple no improvisa, sino que deja esta parte en manos de alguien con un historial muy largo.
Si usas iPhone, iPad o Mac, lo más probable es que el cambio sea suave. Apple suele trabajar con equipos que ya están muy rodados y, en este caso, Steve Lemay no es una cara nueva. Cada líder da su toque, y con el tiempo podríamos notar pequeños giros en cómo se muestran notificaciones, menús o nuevas funciones con IA dentro del ecosistema Apple.

Desde fuera, este relevo también marca la batalla velada con Meta por el talento en diseño de interfaces e inteligencia artificial. Mientras Meta busca diferenciarse en gafas inteligentes con IA y realidad virtual, Apple refuerza la continuidad de sus pantallas y su experiencia pulida. Al final, tú escogerás uno u otro producto según cómo de cómodo y natural te resulte interactuar con él.
Meta no solo ha fichado a Alan Dye. Lleva tiempo siguiendo una estrategia bastante clara: captar talento de competidores para ganar terreno en la carrera de la inteligencia artificial. Lo ha hecho con diseñadores de Apple, pero también con investigadores de otros gigantes de la IA.
También te puede interesar:Meta Comenzará a Usar Casi Todos Tus Datos Para Entrenar Su IA: Así Puedes ProtegerteDurante el verano anterior, la compañía contrató a investigadores procedentes de OpenAI. Esto muestra que Meta quiere reforzar tanto el músculo técnico como la parte creativa y de producto, para que la IA no se quede solo en los laboratorios, sino que llegue integrada en dispositivos como gafas inteligentes con IA, cascos VR y servicios web.
Dentro de esta competición por el talento se ha contado una anécdota curiosa. Se informó de que Mark Zuckerberg llegó a entregar personalmente sopa casera a un empleado de OpenAI como parte de sus esfuerzos para convencerlo de fichar por Meta. Es un gesto muy poco habitual para un CEO de su tamaño y muestra hasta qué punto quiere ganar esta batalla.

Como respuesta medio en broma, el responsable de investigación de OpenAI, Mark Chen, comentó que luego él mismo ha llevado sopa a posibles fichajes procedentes de Meta. Más allá de la gracia, lo que enseña esta historia es que hay una competencia muy seria por las personas que saben cómo llevar la IA desde el código hasta producto real, ya sea una app o unas gafas inteligentes con IA.
Poco después de conocerse la salida de Alan Dye de Apple, Mark Zuckerberg anunció la creación de un nuevo estudio creativo dentro de Reality Labs. Este estudio estará dirigido por el propio Dye y se centrará en imaginar la próxima generación de productos de Meta, con las gafas inteligentes con IA y los cascos VR como grandes protagonistas.

La idea es agrupar en un mismo sitio a perfiles de diseño, moda y tecnología que puedan darle forma a experiencias completas, no solo a pantallas bonitas. Si alguna vez has pensado que los cascos de realidad virtual son aparatosos o que las gafas inteligentes parecen demasiado técnicas, este estudio busca justo lo contrario: que sean objetos que quieras llevar porque te gustan y porque la IA te aporta valor real.
Este estudio creativo no se queda solo con Alan Dye. Va a trabajar codo con codo con Billy Sorrentino, otro exdiseñador de Apple, que ya había liderado el diseño de interfaces en Reality Labs. Esto da continuidad a lo que Meta ha ido construyendo en realidad virtual, pero con el refuerzo de la experiencia de Apple en productos de consumo.
También se une Joshua To, que ha dirigido el diseño de interfaces en Reality Labs. Tener a Sorrentino y To juntos, más el fichaje de Dye, crea un núcleo fuerte de gente que sabe lo que es lanzar productos complejos al mercado. La gran prueba llegará cuando veamos cómo se traducen estas decisiones en unas gafas inteligentes con IA que puedas comprar y usar todos los días.
El nuevo estudio integrará al equipo de diseño industrial de Meta liderado por Pete Bristol. Este grupo se encarga de la parte física: cómo se sujetan las gafas, cuánto pesan, qué sensación dejan en la cara, dónde van las cámaras o los micrófonos. Es el tipo de detalles que marcan si puedes llevar unas gafas inteligentes con IA durante horas sin cansarte.
También se añadirán los equipos de diseño y arte del metaverso de Meta, dirigidos por Jason Rubin. Ellos crean los mundos virtuales, los avatares y las experiencias digitales que verás dentro de los cascos VR o a través de las gafas. Al reunir hardware, software y contenido en un mismo estudio, Meta quiere evitar que cada parte vaya por su lado y que la inteligencia artificial sea el hilo que lo conecte todo.
Mark Zuckerberg ha explicado que su idea para este estudio creativo es tratar la inteligencia artificial como un nuevo “material de diseño”. Igual que un diseñador piensa en vidrio, metal o tela cuando crea un producto físico, ahora quiere que el equipo piense también en la IA como algo con lo que se “moldea” la experiencia.

La clave está en imaginar qué es posible cuando la inteligencia artificial es abundante, capaz y centrada en las personas. Por ejemplo, unas gafas inteligentes con IA podrían reconocer objetos a tu alrededor, traducir textos al vuelo o sugerirte rutas sin que tengas que sacar el móvil. Para que eso no sea un caos de avisos y mensajes, el diseño de interfaz se vuelve fundamental.
Zuckerberg también ha dicho que el objetivo es unir diseño, moda y tecnología para definir la próxima generación de productos y experiencias de Meta. No quiere que las gafas inteligentes con IA parezcan solo un prototipo para “frikis” de la tecnología, sino algo que puedas llevar por la calle sin llamar la atención más de lo que quieras.
En la práctica, esto implica que el nuevo estudio tendrá que pensar en marcos de gafas que entren dentro de tendencias de moda, en colores que se integren con tu estilo y en maneras discretas de mostrar información. Si lo hacen bien, vas a poder llevar un asistente de IA en tu cara sin sentir que llevas un casco de laboratorio.
Meta planea, en palabras de Zuckerberg, “elevar el diseño” dentro de la compañía. Esto significa darle más peso a las decisiones de diseño en las fases iniciales de cada producto y no dejarlo solo para el final como un maquillaje visual. En un entorno donde la IA cada vez lo ocupa todo, el riesgo es sacar funciones muy potentes, pero imposibles de entender o controlar.
El nuevo estudio se ha planteado con un objetivo claro: reunir un grupo de talento con una combinación poco común. Buscan alta ejecución artesanal, visión creativa, pensamiento sistémico y mucha experiencia en productos icónicos que mezclan hardware y software. Ese tipo de perfil es el que ha dado vida a dispositivos como el iPhone o las primeras Oculus, y ahora se quiere volcar en las gafas inteligentes con IA de próxima generación.
Si todo va como Meta espera, tú vas a notar varias cosas cuando uses uno de sus dispositivos. Primero, que la interfaz se entiende a la primera, sin manuales eternos. Segundo, que la inteligencia artificial sabe cuándo ayudarte y cuándo no molestar, porque el diseño habrá pensado bien cada contexto. Y tercero, que el dispositivo encaja con tu vida diaria, tanto en aspecto como en funciones.
Todo esto está todavía en construcción. El estudio creativo acaba de nacer, los fichajes se están asentando y los productos con todas estas ideas tardarán un tiempo en llegar al mercado. Hasta entonces, iremos viendo pistas en las nuevas versiones de gafas inteligentes con IA, en los cascos de realidad virtual y en los cambios de interfaz que Meta vaya lanzando.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.