OpenAI se ha convertido en el principal referente cuando piensas en inteligencia artificial generativa y chatbots conversacionales. Pero detrás de productos tan conocidos como ChatGPT o Codex, hay historias que desconocemos. A partir del relato directo de Calvin French-Owen, quien lo vivió todo desde dentro, podrás darte una idea más clara de cómo es el panorama para los trabajadores internos.
Tras un año trabajando con algunos de los ingenieros más reconocidos del sector dentro de OpenAI, French-Owen decidió salir para volver a lo que más le apasiona: fundar startups. En ese año, la compañía pasó de ser un equipo grande a manejar el doble de personas, y eso genera retos tan grandes como el propio éxito de la IA.
¿Cómo se desarrolla un agente de codificación con inteligencia artificial como Codex? ¿Qué problemas prácticos surgen entre equipos? ¿Por qué la seguridad y la cultura empresarial generan tantas preguntas? Pondremos el foco en la vivencia de un exingeniero de OpenAI, vas a poder entender mejor cómo se vive el boom de ChatGPT y su impacto real en la industria.
En solo un año, OpenAI ha pasado de tener unos mil empleados a superar los tres mil. Este crecimiento responde a la entrada explosiva de ChatGPT en el mercado, que en marzo ya había superado la marca de 500 millones de usuarios activos. Es el producto de consumo con el crecimiento más rápido de la historia, y esa fama tiene un precio que se paga internamente.
El aumento tan rápido de la plantilla ha obligado a revisar de forma constante los procesos organizativos. ¿Qué supone esto de cara a los trabajadores? El día a día se complica más de lo que imaginas a nivel de comunicación, coordinación entre distintos equipos y gestión de la contratación.
French-Owen cuenta que casi cada semana había algún cambio en las estructuras de reporting, con equipos moviéndose de un proyecto a otro según las urgencias y lanzamientos.
También te puede interesar:OpenAI Lanza el Modo Visión en Tiempo Real y Compartir Pantalla en EuropaAdemás, la empresa sigue manteniendo una esencia de startup, y eso ayuda a moverse muy rápido, pero también provoca duplicidad de esfuerzos y, a veces, falta de claridad sobre quién está haciendo cada cosa.
A pesar de contar con miles de ingenieros y perfiles técnicos, OpenAI sigue apostando por una cultura de autonomía entre sus equipos. Puedes imaginarte una organización donde es fácil proponer ideas, probar cosas y lanzar productos casi sin freno burocrático. Eso ayuda al ritmo de innovación, pero también genera algunos “efectos colaterales”.
Te puede sorprender que, dentro de la compañía, coexistan más de media docena de herramientas y bibliotecas internas para hacer lo mismo, como gestionar colas o agentes. ¿Por qué ocurre esto? Porque los equipos tienen libertad para atacar los problemas a su manera, lo cual fomenta la experimentación, pero acaba en bastantes casos con recursos duplicados y cierta confusión a largo plazo.
Además, aunque muchos ingenieros provienen de empresas como Meta, el nivel de experiencia es muy desigual. En un mismo equipo pueden trabajar programadores veteranos y recién doctorados, lo que en parte explica los problemas de integración y calidad en el código central de la empresa.
Si alguna vez has pensado que el software detrás de la inteligencia artificial es “impecable”, la realidad es que no siempre es así. El repositorio central de código en OpenAI, que muchos dentro conocen como “el monolito backend”, mezcla código escrito por perfiles de todo tipo, desde seniors experimentados hasta perfiles muy jóvenes o incluso investigadores con poca experiencia en desarrollo productivo.
El uso masivo de Python, sumado a la imposibilidad de rehacer el sistema desde cero, hace que el código sea poco homogéneo y a menudo difícil de mantener. French-Owen explica que algunas partes se rompen, fallan o ralentizan procesos importantes.
También te puede interesar:OpenAI une fuerzas con los Laboratorios Nacionales de EEUU para transformar la investigación científicaLa buena noticia es que los directivos técnicos lo saben y están constantemente intentando mejorar la estructura y los procesos de revisión, aunque la presión del día a día no ayuda a limpiar ni a documentar el código de la manera ideal.
Resulta curioso ver cómo, aun con todo este desorden, los equipos logran lanzar productos punteros y mantener una plataforma activa para millones de usuarios.
El equipo de Calvin French-Owen fue capaz de desarrollar Codex, el nuevo agente de codificación por IA, en solo siete semanas. Eran unas veinte personas, mezclando ingenieros sénior, investigadores, diseñadores y responsables de mercado, todos trabajando jornadas prácticamente sin descanso.
La velocidad para sacar Codex fue posible por el “espíritu lanzador” que reina en la empresa y por usar herramientas simples como Slack, lo que permite reaccionar rápido a cualquier problema o feedback. En cuanto el producto apareció en la barra de ChatGPT, empezaron a llegar usuarios prácticamente al instante, lo que muestra el tremendo poder de la marca para dar visibilidad de forma masiva.
Codex no es el único ejemplo: esta apuesta por lanzar cuanto antes, aunque haya errores por pulir, parece casi la regla interna de OpenAI.
Otro aspecto que define el día a día en OpenAI es la cultura de secretismo. Si alguna vez te has preguntado por qué es tan difícil saber detalles internos de la empresa, aquí tienes la respuesta: la organización vive bajo la lupa constante de medios, gobiernos y competidores.
También te puede interesar:De 4,5 millones de conversaciones, Solo Un 2,9 % usa Chatbots como Claude para Apoyo EmocionalCada lanzamiento importante genera miles de publicaciones en redes sociales. La empresa monitoriza de manera proactiva cualquier viralización en X (antes Twitter), y existe una preocupación real por las filtraciones o por posibles malentendidos fuera de contexto.
Esta presión se traduce, según French-Owen, en una exigencia brutal sobre todos los empleados, que operan sabiendo que “las apuestas son realmente altas” y que cualquier error puede afectar la imagen pública o la propia seguridad del negocio.
Una de las críticas más frecuentes que recibe OpenAI desde fuera es la idea de que no prioriza la seguridad de la inteligencia artificial. ¿Crees que esto es así? Desde dentro, todo parece distinto. French-Owen aclara que hay investigadores completamente enfocados en cuestiones prácticas del día a día, como el discurso de odio, el abuso, los sesgos políticos o incluso el uso indebido para crear armas biológicas y autolesiones.
Por poner un ejemplo, el equipo se esfuerza mucho en “atajar” los riesgos inmediatos, como los ataques de prompt injection, las respuestas peligrosas o la desinformación política. Existe una preocupación fundada por los riesgos más teóricos y a largo plazo, aunque estos no suelen ocupar la agenda diaria tanto como los problemas actuales que afectan a cientos de millones de usuarios reales.
Importa destacar que el equipo es sumamente consciente de lo que se juega, ya que sus modelos se usan para tareas muy sensibles: desde pedir consejo sanitario hasta buscar apoyo emocional, con todos los riesgos y retos sociales que eso implica para una IA pública y masiva.
Cuando eres el principal actor en IA, cada paso es observado por gobiernos y gigantes tecnológicos. OpenAI experimenta una presión casi permanente para mantener su ventaja frente a rivales como Anthropic (creadores de Claude Code) o nuevos actores como Cursor. Cualquier pequeño incidente amplifica la percepción de riesgo y puede derivar en regulación más estricta o en guerras mediáticas complicadas de gestionar.
Con todo, la plantilla acoge a muchos perfiles que han trabajado en Meta u otras grandes tecnológicas, lo que les da experiencia en manejar entornos bajo escrutinio y adaptarse a cambios legislativos o ataques de la competencia. Saber convivir con este tipo de presión es casi un requisito diario si quieres aguantar en OpenAI.
Trabajar en OpenAI significa convivir con la exigencia de lanzar productos como ChatGPT y Codex a una velocidad récord, afrontar retos organizacionales y técnicos enormes y operar bajo la presión constante de gobiernos, medios y rivales. Si algo define a la empresa, según el relato de Calvin French-Owen, es la apuesta por la agilidad y el impacto inmediato, aunque eso implique ciertos desórdenes internos y una cultura de secretismo muy acusada.
La seguridad de la inteligencia artificial y la gestión de riesgos reales siguen siendo prioridad interna, al margen de la percepción externa sobre la compañía. En definitiva, la historia detrás del boom de OpenAI demuestra que el éxito puede ser tan “caótico” y exigente como fascinante, y que la búsqueda de equilibrio entre agilidad e impacto social marca todos los días de quienes forman parte de su equipo.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.