OpenAIIA / Inteligencia ArtificialARC-AGIWaymoNano Banana ProOracleChatGPTbitcoinHiltonAgentes IANotionMetaManus AIxaiHalftime

La Vacante de OpenAI Que Promete Sueldo Millonario a Quien Controle los Riesgos de IA

 | diciembre 30, 2025 19:19

¿Qué pasa cuando la herramienta que usas para redactar un mail o planear un viaje también puede empujar una conversación hacia un lugar peligroso? La inteligencia artificial ya se metió en la rutina. Y, de golpe, la pregunta dejó de ser “qué puede hacer” para volverse “qué puede salir mal”.

OpenAI, la empresa detrás de ChatGPT, acaba de abrir una vacante que lo dice sin rodeos: busca un nuevo head of preparedness (jefe de preparación), una figura dedicada a limitar o mitigar efectos negativos de la IA. El hallazgo no está en un paper: está en una oferta laboral con un número contundente.

Sam Altman, CEO de OpenAI, reveló en X que el puesto es “estresante” y que quien lo ocupe “se lanzará a la parte más profunda de la piscina prácticamente de inmediato”. Además, lo definió como “un rol crítico en un momento importante”. El salario: 555.000 dólares al año, más participación en acciones.

La clave es qué están pagando. No es por “hacer la IA más creativa”, sino por construir un mecanismo de contención: evaluaciones, modelos de amenazas y medidas de mitigación que se integren en una “canalización” coherente (pipeline, una cadena de pasos automatizados) de seguridad, rigurosa y escalable.

La analogía doméstica ayuda: si una casa suma más electrodomésticos potentes, no alcanza con enchufarlos y listo. Hay que reforzar el cableado, agregar disyuntores y probar qué pasa si se sobrecarga el sistema. Este puesto es, en esencia, el electricista central de una casa que creció demasiado rápido.

Porque los riesgos no son abstractos. Altman sostuvo que los modelos mejoran rápido, hacen muchas cosas positivas, pero empiezan a plantear retos reales. Entre ellos, mencionó un anticipo en 2025 sobre impacto en salud mental y un punto sensible: la IA se está volviendo buena en ciberseguridad al nivel de encontrar vulnerabilidades críticas.

También te puede interesar:OpenAI Lanza el Modo Visión en Tiempo Real y Compartir Pantalla en Europa

Ahí aparece el engranaje que preocupa: cuanto más capaz es un modelo, más puede ayudar… y también más puede ser usado de forma maliciosa. En la lista de efectos negativos que se discuten alrededor de la IA entran pérdida de empleo, desinformación, uso hostil, daño medioambiental y erosión de la agencia humana (la capacidad de decidir sin ser empujado).

En la práctica, el caso más cotidiano es el que ya está en el bolsillo de millones. ChatGPT popularizó los chatbots para investigar temas, redactar correos y organizar tareas simples. Pero también abrió una oportunidad delicada: algunas personas los usan como sustituto de terapia.

Y ese atajo puede tener costo. Se reportaron casos en los que el uso de chatbots como reemplazo de apoyo profesional agravó problemas de salud mental, fomentó delirios u otras conductas preocupantes. En octubre, OpenAI dijo que trabajaba con profesionales de salud mental para mejorar cómo interactúa ChatGPT con usuarios que muestran señales de riesgo, como psicosis o ideas de autolesión.

El “interruptor” de seguridad que OpenAI quiere ajustar

El head of preparedness se ubica dentro del equipo de Safety Systems (sistemas de seguridad), encargado de diseñar salvaguardas, marcos de trabajo y evaluaciones para los modelos. Según la descripción, la persona liderará evaluaciones de capacidades (qué puede hacer el modelo), modelos de amenazas (quién podría abusar y cómo) y mitigaciones (barreras concretas).

Además, deberá unir todo eso en una sola canalización operativa. Dicho en cocina: no sirve tener alarma en la puerta si la ventana queda abierta. La seguridad funciona cuando es un sistema completo, no un parche.

OpenAI nació con la misión de desarrollar IA que beneficie a toda la humanidad e integró protocolos de seguridad desde el inicio. Sin embargo, exempleados sostienen que, con la presión por lanzar productos y generar ingresos, la seguridad perdió centralidad.

También te puede interesar:OpenAI une fuerzas con los Laboratorios Nacionales de EEUU para transformar la investigación científica

Jan Leike, exlíder del equipo de seguridad ya disuelto, escribió al renunciar en mayo de 2024 que la empresa había perdido de vista su misión y que la cultura y los procesos de seguridad quedaron relegados frente a “productos vistosos”.

Jan Leike advirtió en X que “construir máquinas más inteligentes que los humanos es inherentemente peligroso” y que la empresa asume una enorme responsabilidad.

Otro exmiembro, Daniel Kokotajlo, explicó que se fue por perder confianza en la responsabilidad de OpenAI ante la AGI (inteligencia general artificial, una IA teórica que razona como un humano). Dijo que el equipo que investigaba seguridad relacionada con AGI rondaba las 30 personas, pero se redujo casi a la mitad tras varias salidas.

Si la IA es el nuevo sistema eléctrico de la vida digital, este puesto apunta a algo simple y difícil: que la luz no se apague cuando más se la necesita, y que el mismo cableado no termine generando el incendio.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram