¿Qué pasa cuando la herramienta que usas para redactar un mail o planear un viaje también puede empujar una conversación hacia un lugar peligroso? La inteligencia artificial ya se metió en la rutina. Y, de golpe, la pregunta dejó de ser “qué puede hacer” para volverse “qué puede salir mal”.
OpenAI, la empresa detrás de ChatGPT, acaba de abrir una vacante que lo dice sin rodeos: busca un nuevo head of preparedness (jefe de preparación), una figura dedicada a limitar o mitigar efectos negativos de la IA. El hallazgo no está en un paper: está en una oferta laboral con un número contundente.
Sam Altman, CEO de OpenAI, reveló en X que el puesto es “estresante” y que quien lo ocupe “se lanzará a la parte más profunda de la piscina prácticamente de inmediato”. Además, lo definió como “un rol crítico en un momento importante”. El salario: 555.000 dólares al año, más participación en acciones.
La clave es qué están pagando. No es por “hacer la IA más creativa”, sino por construir un mecanismo de contención: evaluaciones, modelos de amenazas y medidas de mitigación que se integren en una “canalización” coherente (pipeline, una cadena de pasos automatizados) de seguridad, rigurosa y escalable.
La analogía doméstica ayuda: si una casa suma más electrodomésticos potentes, no alcanza con enchufarlos y listo. Hay que reforzar el cableado, agregar disyuntores y probar qué pasa si se sobrecarga el sistema. Este puesto es, en esencia, el electricista central de una casa que creció demasiado rápido.
Porque los riesgos no son abstractos. Altman sostuvo que los modelos mejoran rápido, hacen muchas cosas positivas, pero empiezan a plantear retos reales. Entre ellos, mencionó un anticipo en 2025 sobre impacto en salud mental y un punto sensible: la IA se está volviendo buena en ciberseguridad al nivel de encontrar vulnerabilidades críticas.
También te puede interesar:OpenAI Lanza el Modo Visión en Tiempo Real y Compartir Pantalla en EuropaAhí aparece el engranaje que preocupa: cuanto más capaz es un modelo, más puede ayudar… y también más puede ser usado de forma maliciosa. En la lista de efectos negativos que se discuten alrededor de la IA entran pérdida de empleo, desinformación, uso hostil, daño medioambiental y erosión de la agencia humana (la capacidad de decidir sin ser empujado).
En la práctica, el caso más cotidiano es el que ya está en el bolsillo de millones. ChatGPT popularizó los chatbots para investigar temas, redactar correos y organizar tareas simples. Pero también abrió una oportunidad delicada: algunas personas los usan como sustituto de terapia.
Y ese atajo puede tener costo. Se reportaron casos en los que el uso de chatbots como reemplazo de apoyo profesional agravó problemas de salud mental, fomentó delirios u otras conductas preocupantes. En octubre, OpenAI dijo que trabajaba con profesionales de salud mental para mejorar cómo interactúa ChatGPT con usuarios que muestran señales de riesgo, como psicosis o ideas de autolesión.
El head of preparedness se ubica dentro del equipo de Safety Systems (sistemas de seguridad), encargado de diseñar salvaguardas, marcos de trabajo y evaluaciones para los modelos. Según la descripción, la persona liderará evaluaciones de capacidades (qué puede hacer el modelo), modelos de amenazas (quién podría abusar y cómo) y mitigaciones (barreras concretas).
Además, deberá unir todo eso en una sola canalización operativa. Dicho en cocina: no sirve tener alarma en la puerta si la ventana queda abierta. La seguridad funciona cuando es un sistema completo, no un parche.
OpenAI nació con la misión de desarrollar IA que beneficie a toda la humanidad e integró protocolos de seguridad desde el inicio. Sin embargo, exempleados sostienen que, con la presión por lanzar productos y generar ingresos, la seguridad perdió centralidad.
También te puede interesar:OpenAI une fuerzas con los Laboratorios Nacionales de EEUU para transformar la investigación científicaJan Leike, exlíder del equipo de seguridad ya disuelto, escribió al renunciar en mayo de 2024 que la empresa había perdido de vista su misión y que la cultura y los procesos de seguridad quedaron relegados frente a “productos vistosos”.
Jan Leike advirtió en X que “construir máquinas más inteligentes que los humanos es inherentemente peligroso” y que la empresa asume una enorme responsabilidad.
Otro exmiembro, Daniel Kokotajlo, explicó que se fue por perder confianza en la responsabilidad de OpenAI ante la AGI (inteligencia general artificial, una IA teórica que razona como un humano). Dijo que el equipo que investigaba seguridad relacionada con AGI rondaba las 30 personas, pero se redujo casi a la mitad tras varias salidas.
Si la IA es el nuevo sistema eléctrico de la vida digital, este puesto apunta a algo simple y difícil: que la luz no se apague cuando más se la necesita, y que el mismo cableado no termine generando el incendio.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.