El hallazgo lo trae la startup Tiiny AI con su Tiiny AI Pocket Lab, un dispositivo que se anuncia como el superordenador de IA más pequeño del mundo. Mide cerca de 14 centímetros de largo, 8 de ancho y algo más de 2 de grosor. Pesa unos 300 gramos, como una batería externa.
Además, el equipo recibió el reconocimiento de Guinness como el mini PC o superordenador de IA más pequeño del mundo. La revelación no es solo el tamaño: la pieza clave es el cambio de paradigma. La propuesta es llevar la inteligencia artificial desde la nube al bolsillo del usuario.

Durante décadas, la imagen de un superordenador fue la de salas llenas de servidores, cables y ventilación. Un mecanismo central pensado para la potencia bruta, con un consumo eléctrico capaz de alimentar un pequeño barrio. Este Pocket Lab intenta hacer lo contrario: concentrar capacidad sin pedirle permiso a un centro de datos.
Por dentro combina un procesador ARM de 12 núcleos y una NPU (unidad de procesamiento neuronal, un chip para IA) dedicada. Esa dupla llega a unos 190 TOPS (billones de operaciones por segundo), una cifra sorprendente en formato portátil.
Para dimensionarlo: muchos portátiles con aceleración de IA se mueven entre 30 y 50 TOPS. Algunos chips de PC diseñados para IA apenas superan los 100 TOPS. Este pequeño bloque se acerca a ese hardware especializado y supera a la mayoría de portátiles en ese indicador.
La analogía útil es pensar el dispositivo como una casa con una instalación eléctrica inteligente. No se trata de encender todas las luces a la vez para “sentir potencia”. Se trata de activar solo el circuito necesario en cada habitación, en el momento justo, y dejar el resto apagado para no desperdiciar energía.
Ahí entra TurboSparse (cálculo selectivo de la red), una técnica que activa solo las partes necesarias de la red neuronal durante el trabajo. Es como un interruptor que evita recorrer cables inútiles cuando una tarea no los necesita. Y se suma PowerInfer (motor de reparto de carga), que distribuye el esfuerzo entre la CPU y los procesadores especializados para que cada engranaje haga lo que mejor sabe.
Así, en vez de replicar la fuerza bruta de un centro de datos, el sistema calcula “solo lo imprescindible”. Ese cableado eficiente explica por qué el consumo térmico ronda los 30 vatios y por qué, a plena carga, se ubica cerca de 65 vatios. Para comparar: una GPU profesional puede consumir más de diez veces esa energía.
El dato que abre una oportunidad: memoria y modelos grandes sin Internet

La otra pieza clave está en la memoria: 80 GB de RAM LPDDR5X (memoria rápida de bajo consumo). Esa cifra supera a muchos portátiles profesionales. Y habilita el punto más llamativo: ejecutar modelos de lenguaje de hasta 120.000 millones de parámetros (tamaño del “cerebro” del modelo) directamente en el dispositivo.
Hasta hace poco, mover modelos de ese tamaño era terreno de servidores o GPUs costosas. En cambio, este enfoque promete tareas como análisis de texto complejo, generación de código y razonamiento multietapa en local. Sus desarrolladores lo describen como “inteligencia de nivel doctoral”, una etiqueta que apunta a resolver problemas con varios pasos encadenados.
Privacidad e independencia: dos beneficios cotidianos

Primero, privacidad: al ejecutar IA sin conexión, los datos no abandonan el dispositivo. Segundo, independencia de la nube: se puede usar en lugares sin acceso a Internet, desde un viaje hasta un trabajo de campo. Es un cambio silencioso, pero central, para quienes no quieren que todo pase por servidores remotos.
Si la miniaturización sigue este camino, la IA podría parecerse menos a “alquilar” capacidad y más a tener un ordenador propio de IA. Como esa casa bien cableada: más eficiente, más personal y, sobre todo, más cercana a la vida diaria del usuario.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.








