El propio Elon Musk anunció que el chip Tesla AI5 ya llegó a la fase de tape-out (diseño final listo para fabricar), un paso que marca el salto del plano teórico a las primeras unidades físicas. Según la hoja de ruta de la compañía, el AI5 entraría en producción en 2027 y su sucesor, el AI6, en 2028. Además, el nuevo cerebro digital será fabricado por TSMC y Samsung Electronics, con apoyo de plantas en Arizona y Texas.
La clave es que Tesla no lo presenta como un retoque. Lo plantea como una plataforma mucho más ambiciosa para la inferencia (uso del modelo ya entrenado para tomar decisiones), la tarea central que permite a un vehículo interpretar lo que ocurre alrededor y actuar de inmediato.
“Será uno de los chips de IA más producidos de la historia”, sostuvo Musk, en una señal de la escala que Tesla imagina para autos, robotaxis y robots humanoides Optimus.
El nuevo interruptor de la conducción autónoma
Para entender el mecanismo, sirve una analogía doméstica. El AI4 era como una casa bien equipada, pero con un tablero eléctrico pensado para las necesidades de hoy. El AI5, en cambio, sería una central nueva, con más llaves, más cableado y un interruptor más rápido para repartir energía donde hace falta.
En números, Tesla promete hasta 50 veces más rendimiento en inferencia frente al AI4. Ese salto se apoya en 10 veces más potencia de computación bruta y 9 veces más memoria, dos engranajes que permiten analizar más datos al mismo tiempo y con menos cuellos de botella.
También suma bloques específicos para cuantización (reducir el peso de los cálculos para hacerlos más ágiles) y operaciones softmax (el mecanismo que ayuda a priorizar una respuesta entre varias opciones). Traducido: menos energía desperdiciada y una respuesta más inmediata cuando el sistema debe elegir.
Ahí está la oportunidad real.
Si un auto debe distinguir en un instante entre una sombra, un ciclista o un peatón que cruza detrás de otro vehículo, no alcanza con “ver”. Necesita ordenar prioridades con rapidez, como una oficina con un archivador claro en vez de pilas de papeles sobre el escritorio.
Más memoria, más margen de decisión
El prototipo mostrado fue fabricado por Samsung en Corea durante la semana 13 de 2026. Incorpora memoria DRAM junto al encapsulado, es decir, pegada al chip para acortar distancias internas, y esa memoria la suministra SK Hynix.
El sistema monta 12 módulos de LPDDR5X, un tipo de memoria rápida de bajo consumo, con una capacidad total de 192 GB de DRAM. En la práctica, esa reserva funciona como una mesa de trabajo más amplia: permite sostener más información activa sin tener que buscarla una y otra vez.

Además, Tesla intenta reducir su dependencia de terceros en tareas críticas de inferencia. Pero no corta con NVIDIA. La compañía seguirá comprando GPUs, los procesadores usados para entrenar y ejecutar IA a gran escala, mientras combina hardware propio y externo para ajustar costos, consumo y adaptación al software.
Samsung también tendrá un papel relevante en el AI6 desde su fábrica en Texas, mientras TSMC participa desde Arizona. Incluso hay especulación sobre procesos de 2 nanómetros, aunque ese salto parece más vinculado al chip de 2028 que al AI5.
Lo que revela este movimiento es algo más simple que el marketing: Tesla quiere controlar la central de mando de sus máquinas. Y si esa pieza clave funciona como promete, la conducción autónoma podría parecerse menos a una apuesta futurista y más a un sistema doméstico robusto, silencioso y cada vez más previsible.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.








