OpenAI acaba de poner sobre la mesa un puesto que suena a película de catástrofes: un “jefe de alerta” para vigilar los riesgos de ChatGPT, Sora y lo que venga después, algo que Sam Altman anunció en X con cero romanticismo, advirtiendo que se trata de “una posición estresante” y que la persona elegida se verá “casi de inmediato” metida hasta el fondo del problema.
En concreto, el anuncio de empleo fija un sueldo anual de hasta 555.000 dólares, aunque la cifra resulta casi anecdótica cuando se lee la letra pequeña, porque esta persona tendrá que “ampliar, fortalecer y guiar” el programa del departamento de sistemas de seguridad de OpenAI.
Ese departamento, evidentemente, no está para poner candados decorativos, sino para construir salvaguardas reales que, al menos en teoría, garanticen que los modelos “se conduzcan como se espera” cuando aterrizan en el mundo real. Por lo que sabemos, el trabajo consiste básicamente en evitar que una IA que predice texto o vídeo termine convirtiéndose en una máquina de meterse en charcos… o de meter a otros en ellos.
El debate no surge en el vacío, porque en 2025 ChatGPT seguía alucinando en temas legales y acumuló cientos de quejas, según el propio texto que acompaña este movimiento. En concreto, se mencionan reclamaciones que van desde errores delicados hasta acusaciones de crisis de salud mental desencadenadas en algunos usuarios.

Cuando una herramienta está en el bolsillo de medio planeta, el “mal uso” y el “uso normal” se mezclan mucho más de lo que a cualquiera le gustaría admitir, y a eso se suma un ejemplo especialmente feo: el uso de la IA para convertir imágenes de mujeres vestidas en deepfakes en bikini.
También te puede interesar:OpenAI Lanza el Modo Visión en Tiempo Real y Compartir Pantalla en EuropaAquí ya no hablamos de un bug menor, sino de fricción directa con consentimiento, abuso y daño reputacional —y personal— que puede producirse en cuestión de segundos. Con Sora, además, la cosa tampoco fue precisamente un paseo, ya que se afirma que OpenAI tuvo que eliminar la función de crear vídeos con figuras como Martin Luther King Jr. porque los usuarios abusaban de personajes históricos respetados, haciéndolos decir prácticamente cualquier cosa.

La generación de vídeo, en ese sentido, no solo multiplica la creatividad, sino que también multiplica la capacidad de falsificación con apariencia “real”.
La parte más reveladora del asunto no está solo en la tecnología, sino en cómo se defiende legalmente. Cuando los problemas relacionados con productos de OpenAI llegan a los tribunales, aparece un argumento recurrente: los usuarios hicieron un uso abusivo de los productos.
Para ejemplificarlo, se menciona la demanda presentada por la familia de Adam Raine, en la que se alega que ChatGPT le dio consejos que contribuyeron a su muerte, y a ello se suma que, en noviembre, una presentación de abogados de OpenAI señaló que violaciones de las reglas podrían ser una causa potencial relacionada con ese caso.

Esto, evidentemente, no responde a la pregunta clave: ¿qué nivel de responsabilidad tiene una empresa cuando su sistema se usa de forma dañina, previsible o repetida? El marco del “abuso” no parece una excusa puntual, sino una pieza central de cómo OpenAI entiende el papel de sus productos en la sociedad, lo acepten o no los jueces.
En su publicación, Altman reconoce algo que muchas compañías prefieren esquivar: que sus modelos pueden afectar a la salud mental y que existen vulnerabilidades de seguridad. Plantea que entramos en una etapa en la que hace falta un entendimiento más centrado en las implicaciones reales para medir cómo se pueden abusar estas capacidades y limitar desventajas sin renunciar a “los enormes beneficios”.
También te puede interesar:OpenAI une fuerzas con los Laboratorios Nacionales de EEUU para transformar la investigación científicaSin embargo, si el objetivo fuera no causar ningún daño, la solución más eficaz sería retirar del mercado ChatGPT y Sora, algo que evidentemente no va a ocurrir porque aquí hay producto, competencia y un negocio que ya depende de estar en producción.

El rol, en concreto, tendrá la misión de “estar siempre listos”, diseñando estrategias de preparación ante cualquier escenario, evaluando modelos y mitigando capacidades o funciones no deseadas. Es decir, construir un radar de riesgos vivo, capaz no solo de reaccionar a incendios, sino de intentar verlos venir.
A esto se suma la responsabilidad de desarrollar el marco de alerta conforme surjan nuevos riesgos, capacidades o expectativas externas, lo que traducido a lenguaje humano implica imaginar formas inéditas en las que los productos podrían perjudicar a personas o a la sociedad antes de que lo hagan.
Este tipo de puesto no aparece cuando una empresa está tranquila, sino cuando está acelerando y es consciente de que cualquier fallo escala con ella. El artículo señala que en OpenAI se requieren pasos drásticos para aumentar ingresos y lanzar productos cada vez más avanzados.
El vértigo se entiende mejor con un dato concreto: Altman habría insinuado en una entrevista reciente que quiere elevar los ingresos anuales de 13.000 millones a 100.000 millones de dólares en menos de dos años. Pasar de “startup con esteroides” a algo comparable a Disney no consiste solo en vender más suscripciones, sino en meter IA en más sitios, más rápido y con menos margen de error.

Altman también ha dicho que el negocio de dispositivos de consumo será clave para OpenAI, lo que implica ir más allá del chatbot en el navegador y pensar en hardware siempre contigo, siempre activo y siempre mediando.
A eso se suma su afirmación de que una IA capaz de automatizar la ciencia creará un valor enorme, aunque automatizar ciencia también significa automatizar decisiones delicadas: qué investigar, cómo interpretar resultados y qué hipótesis priorizar, con impactos económicos y humanos profundos.
Ahí es donde el “jefe de alerta” deja de sonar a simple compliance y pasa a ser una pieza central del motor, encargada de diseñar mitigaciones para nuevas versiones de productos existentes y para plataformas o dispositivos que aún ni siquiera existen.
Porque, nos guste o no, esta es la foto real: OpenAI quiere empujar el límite tecnológico mientras intenta que el límite social, legal y ético no le explote en la cara. Veremos cómo responde la competencia, pero una cosa está clara: si necesitas pagar 555.000 dólares para fichar a alguien que viva en modo sirena permanente, es que el futuro de la IA viene con más alarmas de las que pensábamos.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.