OpenAIyoutubeMistral AIDoublespeedAgentes IABlaise Agüera y ArcasIA / Inteligencia ArtificialmicrosoftRamón López de MántarasGeneración ZAmazonDamasioagentes de IAUrban VPN ProxyChatGPT

OpenAI Busca Cubrir el Trabajo Más Estresante del Mundo: Adelantarse a los Riesgos de su IA

 | diciembre 29, 2025 03:41

OpenAI acaba de poner sobre la mesa un puesto que suena a película de catástrofes: un “jefe de alerta” para vigilar los riesgos de ChatGPT, Sora y lo que venga después, algo que Sam Altman anunció en X con cero romanticismo, advirtiendo que se trata de “una posición estresante” y que la persona elegida se verá “casi de inmediato” metida hasta el fondo del problema.

En concreto, el anuncio de empleo fija un sueldo anual de hasta 555.000 dólares, aunque la cifra resulta casi anecdótica cuando se lee la letra pequeña, porque esta persona tendrá que “ampliar, fortalecer y guiar” el programa del departamento de sistemas de seguridad de OpenAI.

Ese departamento, evidentemente, no está para poner candados decorativos, sino para construir salvaguardas reales que, al menos en teoría, garanticen que los modelos “se conduzcan como se espera” cuando aterrizan en el mundo real. Por lo que sabemos, el trabajo consiste básicamente en evitar que una IA que predice texto o vídeo termine convirtiéndose en una máquina de meterse en charcos… o de meter a otros en ellos.

Lo incómodo es que el “mundo real” ya ha dado señales de alarma

El debate no surge en el vacío, porque en 2025 ChatGPT seguía alucinando en temas legales y acumuló cientos de quejas, según el propio texto que acompaña este movimiento. En concreto, se mencionan reclamaciones que van desde errores delicados hasta acusaciones de crisis de salud mental desencadenadas en algunos usuarios.

Lo incómodo es que el “mundo real” ya ha dado señales de alarma

Cuando una herramienta está en el bolsillo de medio planeta, el “mal uso” y el “uso normal” se mezclan mucho más de lo que a cualquiera le gustaría admitir, y a eso se suma un ejemplo especialmente feo: el uso de la IA para convertir imágenes de mujeres vestidas en deepfakes en bikini.

También te puede interesar:OpenAI Lanza el Modo Visión en Tiempo Real y Compartir Pantalla en Europa

Aquí ya no hablamos de un bug menor, sino de fricción directa con consentimiento, abuso y daño reputacional —y personal— que puede producirse en cuestión de segundos. Con Sora, además, la cosa tampoco fue precisamente un paseo, ya que se afirma que OpenAI tuvo que eliminar la función de crear vídeos con figuras como Martin Luther King Jr. porque los usuarios abusaban de personajes históricos respetados, haciéndolos decir prácticamente cualquier cosa.

OpenAI Prohíbe Deepfakes de Martin Luther King en Sora Tras una Serie de Vídeos Ofensivos

La generación de vídeo, en ese sentido, no solo multiplica la creatividad, sino que también multiplica la capacidad de falsificación con apariencia “real”.

Cuando la cosa llega a tribunales, “abuso” se convierte en una palabra clave

La parte más reveladora del asunto no está solo en la tecnología, sino en cómo se defiende legalmente. Cuando los problemas relacionados con productos de OpenAI llegan a los tribunales, aparece un argumento recurrente: los usuarios hicieron un uso abusivo de los productos.

Para ejemplificarlo, se menciona la demanda presentada por la familia de Adam Raine, en la que se alega que ChatGPT le dio consejos que contribuyeron a su muerte, y a ello se suma que, en noviembre, una presentación de abogados de OpenAI señaló que violaciones de las reglas podrían ser una causa potencial relacionada con ese caso.

Lista de Asistentes al Memorial Solicitada por OpenAI en Demanda por Suicidio

Esto, evidentemente, no responde a la pregunta clave: ¿qué nivel de responsabilidad tiene una empresa cuando su sistema se usa de forma dañina, previsible o repetida? El marco del “abuso” no parece una excusa puntual, sino una pieza central de cómo OpenAI entiende el papel de sus productos en la sociedad, lo acepten o no los jueces.

El “jefe de alerta” suena a seguridad… y a gestión del riesgo reputacional

En su publicación, Altman reconoce algo que muchas compañías prefieren esquivar: que sus modelos pueden afectar a la salud mental y que existen vulnerabilidades de seguridad. Plantea que entramos en una etapa en la que hace falta un entendimiento más centrado en las implicaciones reales para medir cómo se pueden abusar estas capacidades y limitar desventajas sin renunciar a “los enormes beneficios”.

También te puede interesar:OpenAI une fuerzas con los Laboratorios Nacionales de EEUU para transformar la investigación científica

Sin embargo, si el objetivo fuera no causar ningún daño, la solución más eficaz sería retirar del mercado ChatGPT y Sora, algo que evidentemente no va a ocurrir porque aquí hay producto, competencia y un negocio que ya depende de estar en producción.

OpenAI Enfrenta una Demanda sin Precedentes: ChatGPT es Señalado por un Asesinato

El rol, en concreto, tendrá la misión de “estar siempre listos”, diseñando estrategias de preparación ante cualquier escenario, evaluando modelos y mitigando capacidades o funciones no deseadas. Es decir, construir un radar de riesgos vivo, capaz no solo de reaccionar a incendios, sino de intentar verlos venir.

A esto se suma la responsabilidad de desarrollar el marco de alerta conforme surjan nuevos riesgos, capacidades o expectativas externas, lo que traducido a lenguaje humano implica imaginar formas inéditas en las que los productos podrían perjudicar a personas o a la sociedad antes de que lo hagan.

El elefante en la habitación: crecer a lo bestia sin romperlo todo

Este tipo de puesto no aparece cuando una empresa está tranquila, sino cuando está acelerando y es consciente de que cualquier fallo escala con ella. El artículo señala que en OpenAI se requieren pasos drásticos para aumentar ingresos y lanzar productos cada vez más avanzados.

El vértigo se entiende mejor con un dato concreto: Altman habría insinuado en una entrevista reciente que quiere elevar los ingresos anuales de 13.000 millones a 100.000 millones de dólares en menos de dos años. Pasar de “startup con esteroides” a algo comparable a Disney no consiste solo en vender más suscripciones, sino en meter IA en más sitios, más rápido y con menos margen de error.

OpenAI Apuesta a Todo o Nada: un Billón de Dólares para Dominar la Era de la IA

Altman también ha dicho que el negocio de dispositivos de consumo será clave para OpenAI, lo que implica ir más allá del chatbot en el navegador y pensar en hardware siempre contigo, siempre activo y siempre mediando.

A eso se suma su afirmación de que una IA capaz de automatizar la ciencia creará un valor enorme, aunque automatizar ciencia también significa automatizar decisiones delicadas: qué investigar, cómo interpretar resultados y qué hipótesis priorizar, con impactos económicos y humanos profundos.

Ahí es donde el “jefe de alerta” deja de sonar a simple compliance y pasa a ser una pieza central del motor, encargada de diseñar mitigaciones para nuevas versiones de productos existentes y para plataformas o dispositivos que aún ni siquiera existen.

Porque, nos guste o no, esta es la foto real: OpenAI quiere empujar el límite tecnológico mientras intenta que el límite social, legal y ético no le explote en la cara. Veremos cómo responde la competencia, pero una cosa está clara: si necesitas pagar 555.000 dólares para fichar a alguien que viva en modo sirena permanente, es que el futuro de la IA viene con más alarmas de las que pensábamos.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram