OpenAI está moviendo ficha en un frente que llevaba tiempo en pausa: la robótica humanoide. La compañía quiere que sus modelos de IA salten de la pantalla al mundo real, y para ello está reclutando perfiles muy concretos. Te contamos qué está pasando, por qué ahora y cómo puede afectar a la carrera por la IAG, pero sin destripar aún las claves técnicas que marcan la diferencia.
La idea central es clara: si aspiras a una inteligencia artificial general, necesitas algoritmos que entiendan el mundo físico y lo manipulen con seguridad. Con esta apuesta, OpenAI pretende explorar robots humanoides capaces de navegar, reconocer objetos y realizar tareas con sus propias manos. El reto no es menor, porque el entorno real es cambiante y exige decisiones en milisegundos.
El objetivo inmediato es entrenar modelos que mejoren la comprensión del entorno y la manipulación precisa. Con todo, esta línea no se queda solo en la teoría: OpenAI quiere que la robótica humanoide funcione en casas, oficinas y almacenes, donde la variedad de escenarios obliga a algoritmos más finos que un simple modelo de lenguaje.
¿Qué veremos a futuro? Modelos que integran visión, tacto y control motor para ajustar la fuerza, la postura y la trayectoria en tiempo real. Esta integración es la base para que los robots humanoides cojan tazas, abran puertas y muevan cajas sin romper nada. Falta camino: las escenas no estructuradas siguen exponiendo los límites actuales.
Para impulsar la robótica humanoide, OpenAI está fichando investigadores especializados en sistemas con forma humana o parcialmente humana. Esa contratación apunta a tareas domésticas, logística ligera y asistencia, donde el robot debe operar entre muebles, personas y objetos frágiles.
Un fichaje clave es Chengshu Li, procedente de Stanford. Su trabajo se centra en puntos de referencia para evaluar capacidades de robots en el hogar, lo que da a OpenAI una brújula de rendimiento y seguridad. Con todo, no llega solo: al menos otros tres investigadores de laboratorios punteros se han sumado recientemente al equipo.
También te puede interesar:OpenAI Lanza el Modo Visión en Tiempo Real y Compartir Pantalla en EuropaLa tesis de Li propone evaluar robots con dos brazos y ruedas, una forma híbrida que combina destreza manual con movilidad sencilla. Este enfoque reduce la complejidad mecánica frente a las piernas y acelera el despliegue de robots humanoides en interiores. Moverse por escaleras o superficies irregulares sigue siendo un reto abierto.
Las vacantes publicadas por OpenAI hablan de teleoperación, simulación con Nvidia Isaac y experiencia en diseño mecánico. Varias piden bagaje en herramientas de simulación, porque el entrenamiento masivo en mundos virtuales reduce el coste de ensayo y error en robots reales. Con todo, la teleoperación será clave para generar demostraciones humanas fiables.
La teleoperación permite que un operador controle el robot mientras el algoritmo aprende a imitar esos movimientos. Con este método, es posible transferir habilidades humanas a los robots humanoides con datos limpios y variados. Necesitas miles de horas de demostraciones y un buen control de latencia para que el aprendizaje sea estable.
Cuando alguien guía el robot, el sistema observa vídeo, fuerzas y posiciones de articulaciones para aprender patrones seguros. Esta señal directa hace que la robótica humanoide mejore en tareas finas, como enroscar una tapa o plegar una prenda. Con todo, pasar de copiar a generalizar a nuevos objetos sigue siendo el gran salto.
Plataformas como Nvidia Isaac simplifican la creación de escenarios físicos realistas y la generación de millones de trayectorias sintéticas. Entrenar primero en simulación y después ajustar en el mundo real reduce el coste y el riesgo para los robots humanoides. La brecha simulación-real requiere calibración fina de sensores y materiales.
Varias vacantes piden experiencia en diseñar sistemas mecánicos para volúmenes superiores a un millón de unidades. Ese requisito sugiere ambición de producir a escala industrial, con cadenas de montaje y control de calidad exigentes. Para ti, esto implica precios más bajos y más opciones cuando la robótica humanoide llegue a consumo.
También te puede interesar:OpenAI une fuerzas con los Laboratorios Nacionales de EEUU para transformar la investigación científicaOpenAI podría combinar estos enfoques según la fase del producto y el tipo de robot. Con todo, cada camino impone límites distintos en coste, mantenimiento y ritmo de iteración.
OpenAI no compite sola. Startups como Figure, Agility y Apptronik avanzan deprisa, y gigantes como Tesla y Google invierten fuerte en robots humanoides. El juego no está decidido, porque el salto a entornos no controlados sigue pendiente para todos.
La investigadora Stefanie Tellex apunta que OpenAI no posee hoy una ventaja clara frente a sus rivales en robótica humanoide. Para ser competitivos, los modelos deben procesar entradas sensoriales y ejecutar salidas físicas a alta velocidad y alta dimensión. Con todo, el músculo en IA de OpenAI puede acelerar el ritmo si acierta con los datos y el hardware.
OpenAI ya demostró pericia en 2019 con un sistema capaz de resolver un cubo de Rubik usando una mano robótica. Ese trabajo probó que el control hábil es posible con aprendizaje profundo y datos diversos. La robótica humanoide completa exige coordinación de todo el cuerpo, no solo dedos y muñeca.
En 2021, la empresa paró su frente robótico para centrarse en grandes modelos de lenguaje como ChatGPT. Retomó la robótica en 2023, convencida de que la IAG requiere interacción física. Con todo, la decepción con GPT-5 habría reforzado la idea de que hacen falta nuevas vías y datos del mundo real.
Desde principios de 2024, las startups de robótica humanoide han captado más de 5.000 millones de dólares en capital riesgo. Ese flujo financia sensores mejores, motores más baratos y software de planificación. Con todo, convertir prototipos en productos fiables y asequibles sigue siendo el filtro más duro.
Morgan Stanley estima que la industria de robots humanoides podría alcanzar 5 billones de dólares en 2050. La caída de costes en motores y componentes, unida a plataformas de simulación como Nvidia Isaac, está acelerando el mercado. El valor real dependerá de superar tareas complejas fuera del laboratorio.
Hoy vemos robots humanoides que bailan y posan para la cámara, algo vistoso pero poco útil en entornos impredecibles. Para trabajar en casas y fábricas, la robótica humanoide necesita planificación fina, control de contacto y comprensión semántica de escenas saturadas de ruido. Ya asoman progresos en generalización a objetos nuevos.
Los modelos puramente lingüísticos se quedan cortos para mover brazos y manos con precisión. Aquí mandan controladores que integran visión activa, dinámica del cuerpo y aprendizaje por imitación. Con todo, los robots humanoides deberán combinar lenguaje, percepción y acción para ejecutar instrucciones largas sin intervención humana.
Varios grupos ya muestran IA más general para robots, con políticas que transfieren de simulación a realidad y mejoran con práctica. La comunidad tecnológica coincide en que hacen falta nuevas ideas para desbloquear avances, dado el estancamiento percibido en GPT-5. Esa frustración es el empujón que OpenAI usa para apostar por la robótica humanoide.
OpenAI quiere que la robótica humanoide sea el puente hacia la IAG: contrata a especialistas, usa teleoperación y simulación, y valora fabricar a gran escala con hardware propio o alianzas. La competencia de Tesla, Google y las nuevas startups es fuerte, el capital fluye y el mercado podría valer 5 billones en 2050.
El gran reto es dotar a los robots humanoides de la inteligencia necesaria para actuar con seguridad en escenarios complejos y no estructurados; ese es el terreno donde se jugará la próxima gran victoria de la IA.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.