Thinking Machines Lab ha presentado Tinker, una nueva herramienta para crear y ajustar modelos de IA. Importa porque promete reducir barreras técnicas y de coste justo cuando el mercado global pide más control y menos cajas negras.
La compañía, fundada por exlíderes de OpenAI y dirigida por Mira Murati, abre solicitudes de acceso a partir del miércoles. El sector sigue de cerca el lanzamiento, y no solo por quiénes son. La pregunta es obvia: si hoy afinar modelos requiere especialistas y máquinas caras, ¿qué cambia con Tinker y hasta dónde llega la automatización?
El producto llega con una promesa directa: automatizar gran parte del trabajo para afinar modelos de IA personalizados. Vas a poder experimentar con tu propio modelo como empresa, investigador o aficionado, sin montar infraestructuras complejas. Hasta ahora, laboratorios y grandes compañías ajustaban modelos abiertos para tareas específicas, desde resolver problemas matemáticos hasta responder dudas médicas, con herramientas dispersas y gestión delicada del hardware.
La diferencia está en el equilibrio entre simplicidad y control. Tinker abstrae el entrenamiento distribuido y tareas de ingeniería dolorosas, y aun así mantiene tu control sobre los datos y los algoritmos. Puedes descargar el modelo ajustado y ejecutarlo donde quieras, en tu servidor o en la nube. Para quien quiere afinar modelos de IA sin renunciar a la portabilidad, esta combinación es poco habitual.
En esta primera fase, Tinker soporta dos bases abiertas: Llama (Meta) y Qwen (Alibaba). Con unas pocas líneas contra su API eliges entre aprendizaje supervisado o aprendizaje por refuerzo, defines datos o recompensas, y lanzas la puesta a punto. El aprendizaje por refuerzo brilla en tareas muy especializadas, donde los modelos por defecto fallan, y aquí Tinker te deja afinar modelos de IA con ese enfoque en minutos, no semanas.
Ya hay betatesters trabajando con la API. Eric Gan, de Redwood Research, la usa para ajustar modelos capaces de introducir “puertas traseras” en código mediante refuerzo, una muestra de poder y también un aviso sobre riesgos. Su experiencia encaja con el objetivo técnico: extraer capacidades profundas y difíciles de lograr con otras APIs, y hacerlo sin empezar un proyecto de RL desde cero.
También te puede interesar:Thinking Machines Lab: La Innovadora Startup de Mira Murati en IAEl pedigree del equipo explica parte del entusiasmo. John Schulman, cofundador de OpenAI y figura clave en el ajuste con refuerzo que hizo posible ChatGPT, subraya que Tinker da control total del bucle de entrenamiento.
Ese método, con feedback humano, mejora la coherencia y evita respuestas no deseadas. "Queremos que cualquiera pueda afinar modelos de IA sin un clúster de GPU y sin miedo a romper nada", dijo Mira Murati.
Si quieres tocar resultados sin complicarte, la ruta es corta. Con la API actual vas a poder:
Este flujo reduce fricción y acelera la experimentación, clave cuando necesitas afinar modelos de IA para dominios concretos y validar en ciclos rápidos.
El poder técnico trae preguntas. Modelos abiertos pueden descargarse y alterarse con fines maliciosos. Thinking Machines revisa manualmente a quien solicita acceso y prepara controles automáticos para usos indebidos. El ejemplo de introducir backdoors en código ilustra el doble filo: útil para investigar seguridad, peligroso si se cruza la línea. Aquí la vigilancia será tan importante como la capacidad de afinar modelos de IA.
Detrás de Tinker hay más que un producto. El equipo (Murati, Schulman, Barret Zoph, Lilian Weng, Andrew Tulloch y Luke Metz) publica investigación sobre mantener rendimiento en redes neuronales y ajustar grandes modelos de forma eficiente. Esas técnicas nutren la herramienta. En paralelo, el mercado estadounidense empuja hacia el acceso cerrado por API, mientras China lidera en número de modelos abiertos de frontera usados por empresas y universidades.
Murati quiere mover la aguja en sentido contrario. A su juicio, la brecha entre lo que queda en laboratorio y lo que llega al resto no ayuda a nadie. Si Tinker logra que más gente pueda afinar modelos de IA con seguridad y criterio, veremos más talento probando ideas y menos dependencia de cajas negras.
Su apuesta es ambiciosa y no está exenta de riesgos, pero el potencial es real: menos fricción para afinar modelos de IA, más portabilidad y un equilibrio razonable entre abstracción y control. Si Thinking Machines cumple su plan, vas a poder pasar de idea a modelo ajustado con mucha menos fricción que ayer, y eso cambia el mapa del desarrollo en IA.
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.