Boston Dynamics integró Gemini Robotics-ER 1.6, el modelo de inteligencia artificial de Google, en Spot, su robot cuadrúpedo. El hallazgo no está solo en que camine o mire: ahora puede interpretar su entorno con mínima intervención humana, leer instrucciones y planificar tareas.

La pieza clave es la combinación de visión artificial, lenguaje y razonamiento. Es decir, un mismo mecanismo que le permite ver una escena, entender una lista escrita a mano y decidir qué paso viene después sin que una persona le marque cada movimiento como si fuera un control remoto.

Spot el robot cuadrúpedo puede interpretar el entorno, leer instrucciones y planificar tareas

Hasta ahora, muchos robots funcionaban como un electrodoméstico programado para una secuencia fija. Si algo se corría de lugar, el sistema se desorientaba. Con este nuevo cableado digital, Spot se parece más a un operario que entra a una sala, mira alrededor, detecta una anomalía y ajusta su respuesta.

En la práctica, Gemini Robotics-ER 1.6 actúa como ese tablero central. El modelo no solo procesa lenguaje natural, el modo en que una máquina interpreta frases cotidianas, sino que también enlaza esa orden con lo que “ve” y con la acción posible. Si Spot lee una nota manuscrita, puede convertir esa lista en una secuencia de pasos.

También te puede interesar:Google AI Pro y Ultra Amplían Límites de Uso en AI Studio

En las demostraciones, el robot incluso llegó a sacar a pasear a un perro. No es un detalle menor: muestra que ya no se trata solo de moverse, sino de coordinar percepción, contexto y tarea en tiempo real.

La oportunidad real está en fábricas y zonas de riesgo

Boston Dynamics deja claro que el objetivo principal no es el living de una casa. La oportunidad inmediata está en entornos industriales, donde Spot puede recorrer instalaciones, detectar peligros y revisar áreas difíciles o riesgosas para humanos.

No se trata de reemplazar humanos sino enviar a Spot donde un error humano costaria caro o a un acceso peligroso

Allí, el valor práctico es más concreto. El robot puede identificar acumulaciones de agua, leer medidores e interpretar condiciones generales del entorno. Son tareas que parecen simples, pero que exigen un mecanismo fino de observación, criterio y respuesta inmediata.

Además, este desarrollo nace de una colaboración estratégica entre Boston Dynamics y Google DeepMind anunciada a comienzos de año. El foco de esa alianza es integrar modelos avanzados de IA en robots físicos, un terreno donde la inteligencia no alcanza si el cuerpo no puede ejecutar con fiabilidad.

También te puede interesar:Google AI Pro y Ultra Amplían Límites de Uso en AI Studio
También te puede interesar:Google expande su herramienta de prueba virtual con IA para incluir vestidos

Ese matiz importa. Porque Spot ya demuestra comprensión y planificación, pero todavía mantiene límites en su movimiento y en ciertas acciones físicas. En otras palabras, el “cerebro” avanza rápido, aunque el cuerpo aún deba ganar precisión para resolver toda clase de escenarios.

Directivos de ambas compañías sostienen que la meta es que los robots reaccionen de forma autónoma a desafíos del mundo real, aunque subrayan que la fiabilidad sigue siendo la condición central.

Por eso, el cambio de paradigma no consiste en reemplazar personas de inmediato, sino en enviar estas máquinas a donde un error humano cuesta caro o un acceso resulta peligroso. Refinerías, plantas industriales, depósitos y corredores técnicos aparecen hoy como el terreno natural para este salto.

Spot todavía no es un mayordomo mecánico. Pero sí empieza a parecerse a ese compañero que entra primero a la sala, enciende la luz correcta y avisa si algo no está bien.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios