Boston Dynamics integró Gemini Robotics-ER 1.6, el modelo de inteligencia artificial de Google, en Spot, su robot cuadrúpedo. El hallazgo no está solo en que camine o mire: ahora puede interpretar su entorno con mínima intervención humana, leer instrucciones y planificar tareas.
La pieza clave es la combinación de visión artificial, lenguaje y razonamiento. Es decir, un mismo mecanismo que le permite ver una escena, entender una lista escrita a mano y decidir qué paso viene después sin que una persona le marque cada movimiento como si fuera un control remoto.

Hasta ahora, muchos robots funcionaban como un electrodoméstico programado para una secuencia fija. Si algo se corría de lugar, el sistema se desorientaba. Con este nuevo cableado digital, Spot se parece más a un operario que entra a una sala, mira alrededor, detecta una anomalía y ajusta su respuesta.
En la práctica, Gemini Robotics-ER 1.6 actúa como ese tablero central. El modelo no solo procesa lenguaje natural, el modo en que una máquina interpreta frases cotidianas, sino que también enlaza esa orden con lo que “ve” y con la acción posible. Si Spot lee una nota manuscrita, puede convertir esa lista en una secuencia de pasos.
También te puede interesar:Google AI Pro y Ultra Amplían Límites de Uso en AI StudioEn las demostraciones, el robot incluso llegó a sacar a pasear a un perro. No es un detalle menor: muestra que ya no se trata solo de moverse, sino de coordinar percepción, contexto y tarea en tiempo real.
La oportunidad real está en fábricas y zonas de riesgo
Boston Dynamics deja claro que el objetivo principal no es el living de una casa. La oportunidad inmediata está en entornos industriales, donde Spot puede recorrer instalaciones, detectar peligros y revisar áreas difíciles o riesgosas para humanos.

Allí, el valor práctico es más concreto. El robot puede identificar acumulaciones de agua, leer medidores e interpretar condiciones generales del entorno. Son tareas que parecen simples, pero que exigen un mecanismo fino de observación, criterio y respuesta inmediata.
Además, este desarrollo nace de una colaboración estratégica entre Boston Dynamics y Google DeepMind anunciada a comienzos de año. El foco de esa alianza es integrar modelos avanzados de IA en robots físicos, un terreno donde la inteligencia no alcanza si el cuerpo no puede ejecutar con fiabilidad.
También te puede interesar:Google AI Pro y Ultra Amplían Límites de Uso en AI StudioEse matiz importa. Porque Spot ya demuestra comprensión y planificación, pero todavía mantiene límites en su movimiento y en ciertas acciones físicas. En otras palabras, el “cerebro” avanza rápido, aunque el cuerpo aún deba ganar precisión para resolver toda clase de escenarios.
Directivos de ambas compañías sostienen que la meta es que los robots reaccionen de forma autónoma a desafíos del mundo real, aunque subrayan que la fiabilidad sigue siendo la condición central.
Por eso, el cambio de paradigma no consiste en reemplazar personas de inmediato, sino en enviar estas máquinas a donde un error humano cuesta caro o un acceso resulta peligroso. Refinerías, plantas industriales, depósitos y corredores técnicos aparecen hoy como el terreno natural para este salto.
Spot todavía no es un mayordomo mecánico. Pero sí empieza a parecerse a ese compañero que entra primero a la sala, enciende la luz correcta y avisa si algo no está bien.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.










