¿Alguna vez intentaste arreglar un electrodoméstico con piezas “alternativas” y, cuando no arrancó, terminaste volviendo al repuesto original aunque fuera más caro? En la carrera de la inteligencia artificial, Meta está viviendo algo parecido. Y el reloj de 2025 no espera.

Según The Information y reportes de Reuters, el hallazgo interno fue incómodo: los chips de IA diseñados por la propia Meta no dieron el rendimiento necesario para entrenar sus modelos más ambiciosos. La empresa, que durante años volcó recursos en el metaverso, ahora se ve obligada a apoyarse fuerte en NVIDIA y también en AMD para recuperar terreno.

Además, Meta había armado su división MTIA, Meta Training and Inference Accelerator (acelerador para entrenamiento y uso de IA), con una promesa clara: crear “silicio” a medida. Es decir, chips hechos para su propio cableado de datos. Pero el mecanismo no respondió como necesitaba.

Modo Rápido o de Razonamiento: Así Podrás Elegir Cómo Te Responde Meta AI en WhatsApp

La clave es entender qué parte del trabajo estaban intentando controlar. En IA hay dos grandes momentos: el entrenamiento (cuando el sistema aprende con enormes cantidades de datos) y la inferencia (cuando ya entrenado responde a tus pedidos). Meta quería una pieza central para ambos, y por eso el desempeño del chip de entrenamiento era el interruptor crítico.

También te puede interesar:Meta Se Enfrenta a Una Demanda Por las Gafas de Realidad Aumentada y la Privacidad

La analogía doméstica ayuda: diseñar chips propios es como construir una caldera a medida para tu casa. En teoría, nadie la conoce mejor que vos. Podés optimizar caños, presión y consumo. Pero si la caldera se apaga en pleno invierno, no sirve que sea “tuya”: necesitás una que funcione hoy, aunque sea de un fabricante externo.

Eso fue lo que ocurrió con el primer chip interno de entrenamiento de Meta. De acuerdo con Reuters, las pruebas mostraron un rendimiento por debajo de lo esperado y también por detrás de alternativas de la competencia. Meta no lo tiró: lo redirigió a tareas menos exigentes, como los sistemas de recomendación de Facebook e Instagram, donde el margen de error es más tolerable.

Sin embargo, entrenar modelos generativos a gran escala exige otra liga. Es como intentar levantar un edificio con una herramienta pensada para arreglar una puerta. El resultado puede ser prolijo en lo chico, pero se vuelve inestable cuando el proyecto crece.

El engranaje oculto: no alcanza con el chip si el “manual” falla

Las fuentes citadas por The Information apuntan a otro problema central: el software de entrenamiento de Meta no tenía la estabilidad y madurez del ecosistema de NVIDIA. En la práctica, el hardware necesita un “manual” muy afinado: herramientas, librerías y rutinas que expriman cada circuito sin romper nada.

También te puede interesar:Meta Se Enfrenta a Una Demanda Por las Gafas de Realidad Aumentada y la Privacidad
También te puede interesar:Meta Estrena en Silencio Vibes AI, Editor para Desafiar Rivales

Por eso, Meta terminó firmando acuerdos multimillonarios con NVIDIA y AMD para asegurarse capacidad de cómputo inmediata. Y, además, se estima que también alquiló TPU de Google (procesadores diseñados para IA). En vez de apostar todo a un solo proveedor, la estrategia actual es diversificar, como quien no depende de una única ferretería para mantener la casa en pie.

Nvidia Tiembla: Meta y AMD Cierran un Acuerdo de IA que Puede Cambiar el Mercado de Chips

El plan original incluía dos chips: Iris, un diseño de “instrucción única” (hace un tipo de tarea por vez), y Olympus, que iba a ser el núcleo de sus clústeres de entrenamiento (granjas de máquinas trabajando juntas). Pero Olympus acumuló dudas internas sobre estabilidad, complejidad y viabilidad económica. Meta lo aparcó de forma temporal y se inclinó por diseños más sencillos.

En un comunicado citado por The Information, Meta insistió en que sigue comprometida a invertir en distintas opciones de silicio y en el avance de MTIA. El movimiento más elocuente es otro: comprar potencia donde ya está probada.

En esta “economía circular” de la IA, Meta compite en modelos y servicios contra OpenAI, Google o xAI, pero depende de proveedores como NVIDIA y AMD para sostener el ritmo. A corto plazo, la prioridad es que el motor encienda. A largo plazo, el sueño sigue siendo tener la llave de su propio tablero eléctrico.

Porque, al final, en IA también gana quien logra que la máquina funcione todos los días, sin que el usuario note el ruido del cuarto de herramientas.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios