Cuando lees que Meta prepara modelos llamados Mango y Avocado, puede parecer que se trata de una broma interna, pero detrás de estos nombres hay una apuesta muy seria. La compañía quiere cambiar cómo se generan imágenes, vídeo y código con inteligencia artificial y, de paso, meter presión directa a Google, OpenAI y Anthropic.
En los próximos meses vas a oír cada vez más sobre Meta Superintelligence Labs, la nueva división de IA de la empresa. Ahí es donde nace Mango, centrado en la generación visual avanzada, y Avocado, orientado a programación. Todavía hay muchas incógnitas técnicas, y justo por eso ahora es un buen momento para entender qué pretende Meta y cómo puede afectarte como usuario o desarrollador.
En este momento, la referencia clara para Mango es Nano Banana Pro, el motor de creación visual de Google que ha levantado muchas expectativas. Ese modelo ha conseguido resultados muy sólidos en generación de imágenes y vídeo, y ha elevado bastante el listón dentro de la industria de la IA generativa.

Meta quiere que Mango compita directamente con Nano Banana Pro, lo que significa que el listón de calidad va a ser alto. Si lo consigue, vas a poder comparar en poco tiempo cómo rinde Mango frente al ecosistema visual de Google, tanto en precisión como en velocidad o en integración con otros servicios.
La intención es que con Mango vas a poder crear escenas complejas, clips de vídeo y contenidos visuales muy detallados a partir de descripciones en texto. Aunque todavía no hay demostraciones públicas, todo apunta a un enfoque pensado tanto para creadores de contenido como para empresas que quieran automatizar campañas gráficas, anuncios y material multimedia.
El empuje de Nano Banana Pro no solo ha obligado a Meta a moverse más rápido, también ha puesto más presión sobre OpenAI y otros actores. Cuando un modelo destaca en generación de imágenes y vídeo, el usuario empieza a pedir lo mismo en otros asistentes, y ahí es donde se acelera la carrera.
También te puede interesar:Meta fue sorprendida manipulando benchmarks de IAOpenAI ha respondido con actualizaciones continuas que hacen que ChatGPT sea cada vez más completo, pero la mejora visual de Google y el futuro lanzamiento de Mango aprietan todavía más. En la práctica, esto significa que vas a ver ciclos de mejora más cortos, con funciones nuevas llegando varias veces al año en casi todas las plataformas de IA.
La clave de Mango y Avocado está en Meta Superintelligence Labs (MSL), la nueva división de IA de Meta. Esta unidad se centra en modelos que mejoran su rendimiento con menos intervención humana directa, es decir, sistemas que “aprenden de sí mismos” y se van afinando con el tiempo.
MSL se creó hacia la mitad de este año como respuesta a años de avances algo dispersos dentro de la empresa. Hasta ahora, Meta tenía muchos proyectos de IA repartidos en distintos equipos, y la idea con MSL es unificarlos, ordenarlos y empujar solo aquellas líneas que puedan marcar la diferencia frente a Google, OpenAI y Anthropic.
Mark Zuckerberg ha explicado que la visión de MSL pasa por desarrollar modelos de IA capaces de aprender de sí mismos para acelerar el progreso tecnológico de Meta. Dicho de forma sencilla, se busca reducir el trabajo manual de ajuste y permitir que los modelos se entrenen y mejoren con menos supervisión.
Si esta estrategia sale bien, tú vas a poder usar modelos como Mango y Avocado que se adaptan mejor a nuevos tipos de datos, contextos o tareas sin depender de grandes parches constantes. Este enfoque también plantea desafíos de control, seguridad y calidad de resultados que todavía no están totalmente resueltos en la industria.
La creación de Meta Superintelligence Labs ha supuesto una reorganización interna importante. La compañía ha integrado en esta unidad a decenas de especialistas de IA, muchos de ellos fichados directamente por Zuckerberg para centrarlos en proyectos estratégicos de próxima generación.
También te puede interesar:Meta Comenzará a Usar Casi Todos Tus Datos Para Entrenar Su IA: Así Puedes ProtegerteCon esta nueva estructura, MSL se convierte en el lugar donde se toman las decisiones clave sobre modelos como Llama, Mango y Avocado. De esta forma se intenta evitar que la investigación y el desarrollo sigan caminos separados dentro de Meta, algo que en el pasado ha frenado el impacto real de sus avances.
Mientras Mango se centra en lo visual, Avocado apunta a un frente diferente: las tareas de programación y codificación. Se trata de un modelo de IA basado en texto pensado para usuarios que trabajan con software y necesitan ayuda avanzada para escribir, revisar o depurar código.
La idea es que con Avocado vas a poder pedir generación de funciones completas, explicación de errores o propuestas de arquitectura de software. Está orientado especialmente a perfiles técnicos que ya dominan conceptos de desarrollo, pero quieren ahorrar tiempo en tareas repetitivas o complejas.
En el terreno de la programación, Meta no parte de cero, pero sí llega algo más tarde. Anthropic ha reforzado sus modelos con mejores capacidades de codificación y con controles de seguridad mucho más estrictos, orientados a empresas y entornos regulados.
OpenAI, por su parte, ha convertido a ChatGPT en una herramienta muy fuerte para desarrolladores, con generación de código, refactorización y explicación paso a paso. Avocado entra en este contexto competitivo, donde se espera que pueda igualar o mejorar esos usos para ganar un hueco entre los desarrolladores que ahora están volcados en otros asistentes.
Los primeros detalles públicos sobre Mango y Avocado salieron de una sesión interna de preguntas y respuestas en Meta. En ese encuentro participaron Alexandr Wang, cofundador de Scale AI y actual director de MSL, y Chris Cox, director de producto de la compañía.

En esa conversación se explicó la idea general de ambos modelos: Mango como motor visual para imágenes y vídeo, y Avocado como modelo textual avanzado para programación. Se mantuvo bastante discreción respecto a métricas concretas, arquitectura exacta o comparativas directas con otros sistemas.
Según la información interna que ha trascendido, el lanzamiento de Mango y Avocado está previsto para la primera mitad del próximo año. Esto quiere decir que, si todo se mantiene, en unos meses podrías empezar a ver funciones basadas en estos modelos dentro de productos de Meta.

El calendario no solo marca una ventana temporal, también muestra una clara prioridad: durante este periodo, muchas energías internas de Meta se orientarán a que Mango y Avocado salgan con un nivel de calidad que permita competir de tú a tú con las grandes IA del momento.
Ahora mismo, las funciones de IA de Meta descansan principalmente en Llama, su modelo fundacional. Sin embargo, el nuevo plan sugiere que las actualizaciones de Llama pueden pasar a un segundo plano de manera temporal mientras la empresa concentra recursos en Mango y Avocado.
Eso no significa que Llama desaparezca, sino que su ritmo de mejora podría ser algo más lento durante un tiempo. Para ti, esto puede traducirse en menos cambios visibles en los asistentes actuales de Meta, a la espera de que las capacidades de Mango y Avocado empiecen a integrarse en productos reales.
Un movimiento clave para entender Meta Superintelligence Labs es la operación con Scale AI. La compañía de Zuckerberg invirtió alrededor de 14.300 millones de dólares para hacerse con el 49 % de esta startup especializada en etiquetado de datos para entrenar modelos de IA.

Esa inversión no solo asegura acceso a grandes volúmenes de datos de alta calidad, también ha colocado a Alexandr Wang, cofundador de Scale AI, como primer director formal de MSL. Así, Meta suma experiencia técnica en anotación de datos y supervisión de modelos a la dirección estratégica de Mango y Avocado.
Para que un modelo de IA como Mango genere imágenes y vídeo con precisión, necesita entrenarse con enormes cantidades de imágenes bien etiquetadas. Lo mismo pasa con Avocado y el código, que exige ejemplos limpios, variados y con contexto correcto.
Gracias a la participación en Scale AI, Meta refuerza su capacidad para obtener y preparar esos datos. De esta forma, los modelos de Meta Superintelligence Labs pueden entrenarse con conjuntos más cuidados, algo que debería traducirse en respuestas más útiles, menos errores y un comportamiento más estable a largo plazo.
Aun con todo este despliegue, la realidad es que Meta va por detrás de OpenAI, Anthropic y Google en la carrera por la inteligencia artificial avanzada. Estas tres compañías han encadenado lanzamientos y mejoras constantes mientras Meta avanzaba con pasos más contenidos.
Google ha crecido con fuerza en generación de imágenes y ejecución autónoma de tareas, Anthropic ha ganado presencia con sus modelos orientados a seguridad y control, y OpenAI ha mantenido un ritmo de actualizaciones que ha colocado a ChatGPT como asistente de referencia para millones de usuarios.
Para seguir en la conversación, Meta ha ido mejorando su asistente de IA de forma gradual. Hay una app independiente, pero gran parte de su fuerza está en cómo se integra con redes sociales como Facebook, Instagram o WhatsApp para ofrecer experiencias personalizadas.
Meta aprovecha el alcance de sus plataformas para ajustar las respuestas y las recomendaciones a cada usuario. Esto hace que, aunque su asistente no siempre esté al nivel técnico de otros, siga siendo muy relevante gracias a que se inserta justo donde tú ya pasas buena parte del tiempo.
En este contexto, la llegada de Mango y Avocado tiene pinta de ser un punto de inflexión. Estos modelos representan los primeros resultados tangibles de Meta Superintelligence Labs desde su creación y marcan un giro hacia proyectos de IA más claros y ambiciosos.

Hasta ahora, Meta no ha logrado repetir en otras áreas el éxito comercial de productos como sus gafas inteligentes Ray-Ban Meta. Si Mango consigue destacar en generación de imágenes y vídeo, y Avocado convence a desarrolladores exigentes, la compañía puede abrir nuevas líneas de negocio y servicios que no dependan solo de la publicidad y las redes sociales.
En cualquier caso, lo que se ve ya es una apuesta fuerte: reorganización interna, una inversión multimillonaria en Scale AI, un laboratorio dedicado como Meta Superintelligence Labs y un calendario que sitúa a Mango y Avocado en el centro de la estrategia. Si sigues de cerca la evolución de la IA, te interesa estar atento a estos dos nombres, porque pueden definir la próxima etapa de cómo usamos modelos de inteligencia artificial para crear imágenes, vídeo y código en el ecosistema de Meta.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.