¿Te has fijado en que a veces haces la misma pregunta a un asistente y te contesta cosas distintas? Ese vaivén no es casual. Hay un equipo nuevo, con Mira Murati al frente, que quiere poner orden y apostar por respuestas reproducibles en modelos avanzados. Aquí vas a ver qué proponen, por qué importa para tu empresa y qué implicaciones tiene para la aleatoriedad en la IA.
La idea suena ambiciosa y muy práctica: si reduces la aleatoriedad en la IA, es posible auditar resultados, repetir pruebas y tomar decisiones con más seguridad. El camino técnico no es trivial, y el laboratorio plantea una pista curiosa que afecta a cómo trabajan las GPUs por dentro. Vamos paso a paso.
La aleatoriedad en la IA aparece cuando un modelo responde distinto ante la misma entrada. Esta variación se nota en servicios populares, donde haces la misma consulta y obtienes alternativas válidas pero cambiantes. Para ti, que buscas fiabilidad, esa dispersión dificulta auditar procesos, comparar pruebas y fijar políticas claras.
Si logras respuestas reproducibles, se hace más sencillo validar sistemas, repetir experimentos y cumplir requisitos de calidad sin sorpresas. Con todo, no se trata de “apagar” la creatividad, sino de controlar el comportamiento cuando lo necesitas, especialmente en entornos con impacto en negocio o ciencia.
Piensa en un asistente conocido que, con el mismo prompt, te da dos redacciones distintas. A veces es útil para explorar ideas, y otras entorpece tareas críticas, como resumir contratos, replicar informes o ejecutar pipelines de datos. Esa aleatoriedad en la IA convierte la validación en una constante depruebas, revisiones y ajustes.
Thinking Machines Lab, liderado por Mira Murati y con un equipo de antiguos investigadores de OpenAI, ha nacido con una meta clara: avanzar hacia modelos de IA deterministas con respuestas reproducibles. La compañía ha reunido 2.000 millones de dólares de financiación inicial, una cifra que marca el ritmo de un proyecto de alto riesgo y alto potencial.
También te puede interesar:Thinking Machines Lab Contrata a Expertos de OpenAI con Sueldos de Hasta 500.000 DólaresEl laboratorio se mueve en la frontera de la investigación y, a la vez, mira al mercado con una valoración de 12.000 millones. Su éxito real dependerá de si consiguen traducir sus avances en productos claros, útiles y medibles para clientes que no pueden vivir con la aleatoriedad en la IA cuando hay costes y plazos en juego.
El blog técnico del laboratorio ha empezado a publicar su nueva serie “Connectionism”, con el compromiso de compartir artículos, código e información de sus investigaciones. Este enfoque ofrece una ventana poco habitual a una de las start-ups más reservadas de Silicon Valley, y contrasta con la evolución de otras compañías que prometieron apertura y ahora comparten menos.
Publicar con frecuencia no es solo “ser abiertos”, también es una forma de reforzar su cultura interna y acelerar la revisión de ideas. Para ti, significa acceso a pistas técnicas que te ayudan a entender y testear cómo reducir la aleatoriedad en la IA en tus propios flujos.
Según el investigador Horace He, buena parte de la aleatoriedad en la IA no nace del modelo en sí, sino de cómo se ensamblan y orquestan los kernels de la GPU durante la inferencia. Pequeñas variaciones en el orden de ejecución o en decisiones del runtime pueden empujar el cálculo por caminos ligeramente distintos y, con ello, producir respuestas diferentes.
Su tesis es directa: si controlas con cuidado esa orquestación de kernels, empujas al sistema hacia un comportamiento más determinista. No significa congelar el modelo, sino fijar rutas de cómputo estables para que la misma entrada lleve al mismo resultado con una tolerancia muy baja.
Al conseguir respuestas reproducibles, podrás comparar modelos con rigor, auditar decisiones y pasar de pilotos a producción con menos fricción. En entornos regulados o sensibles, esa reducción de la aleatoriedad en la IA simplifica auditorías y revisiones, y baja el coste de mantenimiento al disminuir casos raros.
Para equipos científicos, repetir experimentos sin ruido extra permite validar hallazgos y compartir protocolos claros. Para producto, implica menos sorpresas en despliegues, menos incidencias y métricas de calidad más estables semana a semana.
El laboratorio sostiene que la consistencia en las salidas mejora el aprendizaje por refuerzo (RL) porque reduce el ruido en los datos de entrenamiento. Si la señal de recompensa no se ve contaminada por respuestas inestables, vas a poder ajustar políticas con menos iteraciones, menos coste y menos incertidumbre.
Thinking Machines Lab ha comunicado a sus inversores que planea usar RL para personalizar modelos de IA orientados a negocio. La promesa es clara: modelos alineados con tus procesos, tu tono y tus métricas, con menor aleatoriedad en la IA cuando necesitas repetición y trazabilidad.
Mira Murati anunció en julio que presentarán su primer producto en los próximos meses. Estará pensado para investigadores y start-ups que crean modelos a medida. No han confirmado si esta primera versión incorporará ya las técnicas para lograr respuestas reproducibles; lo sabremos con los próximos lanzamientos.
Existe un equilibrio delicado: si persigues determinismo total, puedes perder variedad y empeorar tareas creativas o exploratorias. También hay incertidumbre sobre el impacto de ciertos cambios de hardware y drivers en la aleatoriedad en la IA, incluso con control estricto del entorno.
El laboratorio afronta preguntas grandes en la frontera de la investigación. Algunas piezas pueden encajar pronto y otras necesitarán validación pública. La intención de publicar artículos y código ayuda, y abre la puerta a que tú pruebes y reportes resultados en tus casos reales.
Con 2.000 millones de dólares de financiación inicial y una valoración de 12.000 millones, el listón está alto. El equipo, con perfiles que vienen de OpenAI, apunta a una ejecución técnica potente. El éxito dependerá de convertir investigación en producto, resolver la aleatoriedad en la IA donde más duele y cerrar pilotos que demuestren valor con métricas claras.
El blog técnico, que ya ha arrancado con “Connectionism”, ofrece una mirada poco habitual a una start-up discreta. Si cumplen su promesa de apertura, vas a poder seguir sus avances de cerca y preparar tu stack para adoptar respuestas reproducibles cuando haya herramientas estables.
Si reduce la aleatoriedad en la IA como promete, Thinking Machines Lab puede cambiar cómo trabajas con modelos, desde el laboratorio hasta producción. Con orquestación cuidada en GPU, aprendizaje por refuerzo más limpio y personalización enfocada al negocio, con la posibilidad de pedir respuestas reproducibles cuando lo necesites y mantener creatividad cuando toque explorar.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.