¿Alguna vez intentaste arreglar un electrodoméstico con piezas “alternativas” y, cuando no arrancó, terminaste volviendo al repuesto original aunque fuera más caro? En la carrera de la inteligencia artificial, Meta está viviendo algo parecido. Y el reloj de 2025 no espera.
Según The Information y reportes de Reuters, el hallazgo interno fue incómodo: los chips de IA diseñados por la propia Meta no dieron el rendimiento necesario para entrenar sus modelos más ambiciosos. La empresa, que durante años volcó recursos en el metaverso, ahora se ve obligada a apoyarse fuerte en NVIDIA y también en AMD para recuperar terreno.
Además, Meta había armado su división MTIA, Meta Training and Inference Accelerator (acelerador para entrenamiento y uso de IA), con una promesa clara: crear “silicio” a medida. Es decir, chips hechos para su propio cableado de datos. Pero el mecanismo no respondió como necesitaba.

La clave es entender qué parte del trabajo estaban intentando controlar. En IA hay dos grandes momentos: el entrenamiento (cuando el sistema aprende con enormes cantidades de datos) y la inferencia (cuando ya entrenado responde a tus pedidos). Meta quería una pieza central para ambos, y por eso el desempeño del chip de entrenamiento era el interruptor crítico.
La analogía doméstica ayuda: diseñar chips propios es como construir una caldera a medida para tu casa. En teoría, nadie la conoce mejor que vos. Podés optimizar caños, presión y consumo. Pero si la caldera se apaga en pleno invierno, no sirve que sea “tuya”: necesitás una que funcione hoy, aunque sea de un fabricante externo.
Eso fue lo que ocurrió con el primer chip interno de entrenamiento de Meta. De acuerdo con Reuters, las pruebas mostraron un rendimiento por debajo de lo esperado y también por detrás de alternativas de la competencia. Meta no lo tiró: lo redirigió a tareas menos exigentes, como los sistemas de recomendación de Facebook e Instagram, donde el margen de error es más tolerable.
También te puede interesar:Meta fue sorprendida manipulando benchmarks de IASin embargo, entrenar modelos generativos a gran escala exige otra liga. Es como intentar levantar un edificio con una herramienta pensada para arreglar una puerta. El resultado puede ser prolijo en lo chico, pero se vuelve inestable cuando el proyecto crece.
Las fuentes citadas por The Information apuntan a otro problema central: el software de entrenamiento de Meta no tenía la estabilidad y madurez del ecosistema de NVIDIA. En la práctica, el hardware necesita un “manual” muy afinado: herramientas, librerías y rutinas que expriman cada circuito sin romper nada.
Por eso, Meta terminó firmando acuerdos multimillonarios con NVIDIA y AMD para asegurarse capacidad de cómputo inmediata. Y, además, se estima que también alquiló TPU de Google (procesadores diseñados para IA). En vez de apostar todo a un solo proveedor, la estrategia actual es diversificar, como quien no depende de una única ferretería para mantener la casa en pie.

El plan original incluía dos chips: Iris, un diseño de “instrucción única” (hace un tipo de tarea por vez), y Olympus, que iba a ser el núcleo de sus clústeres de entrenamiento (granjas de máquinas trabajando juntas). Pero Olympus acumuló dudas internas sobre estabilidad, complejidad y viabilidad económica. Meta lo aparcó de forma temporal y se inclinó por diseños más sencillos.
En un comunicado citado por The Information, Meta insistió en que sigue comprometida a invertir en distintas opciones de silicio y en el avance de MTIA. El movimiento más elocuente es otro: comprar potencia donde ya está probada.
En esta “economía circular” de la IA, Meta compite en modelos y servicios contra OpenAI, Google o xAI, pero depende de proveedores como NVIDIA y AMD para sostener el ritmo. A corto plazo, la prioridad es que el motor encienda. A largo plazo, el sueño sigue siendo tener la llave de su propio tablero eléctrico.
También te puede interesar:Meta Comenzará a Usar Casi Todos Tus Datos Para Entrenar Su IA: Así Puedes ProtegertePorque, al final, en IA también gana quien logra que la máquina funcione todos los días, sin que el usuario note el ruido del cuarto de herramientas.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.