Un grupo de investigadores de Anthropic, la empresa de IA fundada en 2021 por extrabajadores de OpenAI, decidió poner a prueba una idea que suena a película: ¿qué pasa si un gran modelo de lenguaje controla un robot, en este caso un perro robot comercial con la tecnología que ya tienes en casa?
El experimento se hizo en Estados Unidos con Claude, el modelo de lenguaje de Anthropic, y un perro robot Unitree Go2, un cuadrúpedo que se vende por unos 16.900 dólares y que se usa ya en construcción, fabricación e inspecciones de seguridad.

Lo que buscaban no era solo ver si el robot obedecía, sino entender cómo cambia todo cuando pones a una IA generativa en medio de la relación entre personas y máquinas. Falta un detalle clave: quién lo hizo mejor, si los humanos solos o los humanos con ayuda de la IA, y qué implica eso para el futuro.
Para contestar a esa pregunta, Anthropic montó el llamado Proyecto Fetch. Cogieron a dos grupos de personas sin experiencia en robótica y les pidieron que controlaran el perro robot Go2 para realizar tareas físicas cada vez más complejas. Los equipos tenían un mando y acceso al software del robot, como si tú conectaras tu portátil a un dispositivo nuevo y tuvieras que hacerlo moverse con código en lugar de con botones simples.
La trampa del diseño estaba en que solo uno de los grupos podía pedir ayuda a Claude. Ese equipo usó el modelo de codificación de la IA para generar y corregir el código que necesitaban para manejar al robot. El otro grupo tuvo que escribir el software “a mano”, sin asistencia de ningún chatbot, como se ha hecho tradicionalmente en muchos laboratorios y empresas.
Al analizar lo que ocurrió, los investigadores vieron que Claude fue capaz de automatizar gran parte del trabajo duro de programación del perro robot. No hablamos solo de sugerir unas pocas líneas, sino de orquestar bloques de lógica que permitían al Go2 caminar, girar o reaccionar a órdenes más complejas. La IA no tomó el control total del sistema físico, y eso es parte del mensaje de Anthropic: todavía estamos en una fase intermedia, pero el salto ya se nota.
También te puede interesar:Anthropic recluta al cofundador de OpenAI Durk KingmaEn la práctica, el equipo asistido por Claude logró completar algunas de las tareas más rápido que el grupo que solo contaba con humanos. Un ejemplo claro que mencionan los investigadores es cuando les pidieron que el perro robot caminase y encontrase una pelota de playa. El grupo con ayuda de IA consiguió que el Go2 realizara ese recorrido y localizara el objeto, mientras que el equipo sin Claude no logró resolver el reto dentro del tiempo previsto.
Anthropic grabó y revisó todas las sesiones, fijándose tanto en el código como en las conversaciones entre los miembros de los dos grupos. Al estudiar las interacciones, detectaron que el grupo que trabajó sin la IA expresaba más frustración y más confusión, algo que se veía en los comentarios en voz alta y en los tiempos muertos frente al teclado. El equipo con Claude mostraba un proceso más fluido, con menos bloqueos y más sensación de progreso.

Una posible explicación, según los propios autores, es que la IA ayudó a construir “un puente” entre las personas y el robot. Claude generó código, sí, pero también actuó como una especie de interfaz más amable, proponiendo estructuras, llamadas a APIs y patrones que hacían más sencilla la comunicación con el Go2. Eso redujo la sensación de estar perdido en un sistema técnico complejo, que es muy típica cuando programas robots por primera vez.
Conviene recordar qué tipo de máquina estaba en juego. El Unitree Go2, fabricado por la empresa Unitree con sede en Hangzhou (China), es un robot cuadrúpedo que ya se usa en sectores como la construcción y la fabricación para inspecciones remotas y patrullas de seguridad. Puede caminar de forma autónoma, pero normalmente depende de órdenes de alto nivel enviadas por software o de un operador humano que lo dirige con un controlador físico.
Según un informe reciente de la firma de análisis SemiAnalysis, los sistemas de IA que equipa Unitree son ahora mismo los más populares dentro del mercado de robots cuadrúpedos comerciales. Esto significa que lo que pase con modelos como Claude no se queda en un laboratorio aislado, sino que puede afectar a plataformas que ya patrullan obras, fábricas y edificios en diferentes países.
Hasta ahora, cuando se hablaba de grandes modelos de lenguaje como ChatGPT, Claude y otros chatbots, la mayoría de la gente pensaba en texto: contestar preguntas, redactar correos o crear imágenes a partir de descripciones. En los últimos dos años estos modelos han mejorado muchísimo en generación de código y en manejo de software, lo que los convierte en algo más que “autores” automáticos.
También te puede interesar:Canvas ChatGPT: La alternativa a los Artifacts de Claude para proyectos de escritura y programaciónEsa capacidad de escribir y dirigir código hace que pasen a ser agentes que pueden ejecutar acciones a través de programas: lanzar scripts, coordinar servicios web y, a partir de ahí, controlar sistemas físicos. La idea que preocupa y a la vez atrae a muchos investigadores es que, si una IA puede pulsar “botones virtuales” en mil servicios, también puede llegar a mover ruedas, brazos y patas de robots.
Logan Graham, miembro del equipo rojo de Anthropic, lo resume con una frase clara: sospechan que el siguiente paso de los grandes modelos de lenguaje es empezar a afectar de forma mucho más amplia al mundo real. Para que eso ocurra, apunta, los modelos van a tener que relacionarse más y mejor con robots, no solo con navegadores y documentos de texto.
Graham subraya que, hoy por hoy, los modelos actuales todavía no son lo bastante inteligentes como para tomar el control total de un robot sofisticado sin supervisión humana. Reconoce que las próximas generaciones de modelos podrían acercarse a ese nivel de autonomía, sobre todo si se entrenan con tareas físicas reales y no solo con datos de internet.
Anthropic, que se presenta como una compañía centrada en el desarrollo de IA “responsable”, ve estos experimentos como un aviso temprano. La empresa está especialmente interesada en estudiar desde ya cómo los humanos usan los LLM para programar robots. Quieren prepararse para un escenario en el que los modelos puedan llegar a “autoincorporarse”, es decir, integrarse en sistemas físicos y manejar por sí mismos robots, cámaras o infraestructuras industriales.
En ese punto, surge una pregunta que nadie ha resuelto del todo: por qué querría un modelo de IA tomar el control de un robot y por qué actuaría de forma maliciosa. Anthropic admite que estos motivos no están claros, pero aun así explora escenarios extremos como parte de su enfoque de seguridad. Prefieren entender las peores posibilidades antes de que los modelos sean tan capaces que resulte difícil ponerles límites.
Fuera de Anthropic, otros expertos miran el Proyecto Fetch con interés pero también con cierto realismo. La investigadora en robótica Changliu Liu, de Carnegie Mellon, considera que los resultados son llamativos, sobre todo por el análisis de la dinámica de equipo y lo que sugiere sobre nuevas interfaces de programación asistida por IA, aunque no los ve realmente sorprendentes desde un punto de vista puramente técnico.
Liu comenta que le gustaría ver con más detalle cómo contribuyó exactamente Claude en el día a día de los experimentos. Le interesa saber si el modelo se limitó a elegir algoritmos ya conocidos, si seleccionó llamadas a APIs concretas del Go2 o si llegó a proponer soluciones más profundas que un programador novel no habría encontrado por sí mismo. En sus palabras, “la clave no es solo que la IA ayude, sino entender qué tipo de ayuda ofrece exactamente”.
En paralelo, varias startups bien financiadas están diseñando modelos de IA pensados específicamente para controlar robots más capaces que el Go2. Algunas se centran en robots industriales y de logística, y otras apuestan por humanoides que, algún día, podrían encargarse de tareas domésticas en tu casa: recoger, limpiar, mover objetos e incluso cuidar de personas mayores o niños durante ciertas actividades.
Ese futuro más cercano de lo que parece viene con otra cara menos amable. Varios investigadores advierten que dejar la ejecución de tareas físicas en manos de la IA incrementa las posibilidades de usos indebidos y de accidentes. No es solo que un robot pueda caerse o chocar, sino que, mal programado, podría dañar personas, romper equipos caros o vulnerar zonas restringidas.
George Pappas, informático de la Universidad de Pensilvania, interpreta el Proyecto Fetch como una prueba de que los LLM ya pueden instruir a robots en la ejecución de tareas complejas. Matiza que, hoy, los modelos como Claude o ChatGPT necesitan acceder a otros programas especializados para funciones como detección de objetos o navegación precisa, porque ellos solos no tienen todos los sentidos ni todos los algoritmos de control necesarios.
El grupo de Pappas ha desarrollado un sistema llamado RoboGuard que funciona como una especie de marco de normas de comportamiento para robots. La idea es imponer límites claros al tipo de acciones que la IA puede ordenar, de manera que, aunque el modelo proponga algo extraño, el robot solo ejecute comandos que respeten un conjunto de reglas de seguridad predefinidas.
Para Pappas, el verdadero “despegue” de la capacidad de un sistema de IA para controlar un robot llegará cuando pueda aprender interactuando directamente con el mundo físico y no solo leyendo datos o código. Al combinar datos ricos, recogidos por sensores en tiempo real, con retroalimentación encarnada, es decir, con consecuencias físicas sobre el entorno, se construyen sistemas que no solo imaginan el mundo, sino que participan de forma activa en él.
Si esos robots que aprenden del mundo físico logran ser fiables, van a poder asumir mucho trabajo útil: inspecciones peligrosas en obras, tareas repetitivas en fábricas o servicios de vigilancia aburridos para cualquier persona. Anthropic interpreta que ese mismo avance hacia robots más útiles también podría hacerlos mucho más arriesgados si el control recae en modelos demasiado potentes sin las barreras adecuadas.
Los datos y testimonios del Proyecto Fetch proceden de la propia documentación técnica de Anthropic y de análisis independientes de expertos como Liu y Pappas, publicados y comentados durante 2024. Ese cruce de fuentes permite encajar el experimento dentro de una tendencia más amplia, en la que cada nuevo paso en generación de código y control de robots abre oportunidades, pero también obliga a repensar las medidas de seguridad.
Mirando a los próximos años, las señales a vigilar son bastante claras: verás más ejemplos de grandes modelos de lenguaje controlando robots comerciales como el Go2, más proyectos que mezclan aprendizaje físico y simulación digital, y más propuestas tipo RoboGuard que intentan fijar límites de forma explícita. Si empiezan a aparecer robots domésticos o humanoides capaces de aprender tareas nuevas solo con instrucciones en lenguaje natural, sabrás que ese “siguiente paso” del que habla Anthropic ya está aquí.
Por ahora, lo que muestra este experimento es que, cuando pones a Claude a programar un perro robot, vas a poder completar algunas tareas antes y con menos frustración que con un equipo solo humano, pero la IA todavía no domina el juego. El equilibrio entre hacer robots más útiles y mantenerlos bajo control será una de las grandes batallas técnicas y éticas de esta década, y los ensayos como el Proyecto Fetch son solo el principio de esa conversación.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.