OpenAI confirmó que restringirá el acceso a Cyber, su nueva herramienta de defensa digital, pese a que Sam Altman había criticado antes a Anthropic por hacer algo parecido con Mythos. En una publicación en X, el CEO había cuestionado esa estrategia. Ahora, el hallazgo es otro: OpenAI adoptará un mecanismo similar.
La empresa empezará a desplegar GPT-5.5 Cyber solo para “defensores críticos de ciberseguridad”. Es decir, profesionales y equipos que protegen sistemas sensibles. Para entrar, las personas envían información, acreditan credenciales y explican para qué usarán la herramienta.

La pieza clave es sencilla de entender: Cyber puede hacer pruebas de penetración, identificar y explotar vulnerabilidades y analizar malware con ingeniería inversa (desarmar un programa malicioso para ver cómo funciona). Ese poder sirve para encontrar fallos antes que los atacantes.
OpenAI sostiene que busca ampliar el acceso de forma segura y solo a usuarios con fines defensivos.
También te puede interesar:Yubico y OpenAI se unen para blindar cuentas de ChatGPT con llaves físicasEl acceso no será libre. OpenAI encendió un “interruptor” selectivo: deja pasar a algunos usuarios y mantiene la puerta cerrada para el resto. No se trata solo del modelo, sino del cableado de permisos que decide quién puede usar funciones más sensibles.
Además, la compañía ya opera con TAC, sigla de Trusted Access for Cyber, un sistema de verificación por niveles. Es un permiso escalonado, como las llaves de un edificio: no todos abren las mismas puertas, ni llegan a la misma sala de máquinas.
El filtro que cambia la estrategia
Según OpenAI, TAC ya incluye a miles de defensores verificados y a cientos de equipos responsables de software crítico. Esos usuarios pueden trabajar con modelos más permisivos, como GPT-5.4-Cyber, y más adelante con GPT-5.5-Cyber, con menos barreras de seguridad para tareas concretas.
También te puede interesar:Yubico y OpenAI se unen para blindar cuentas de ChatGPT con llaves físicasEl dato revela un cambio de tono. Altman había cuestionado que Anthropic limitara Mythos, incluso cuando algunos críticos decían que esas restricciones eran exageradas o puro miedo. Sin embargo, el propio mercado terminó empujando a OpenAI al mismo punto: cuando una herramienta puede defender y atacar, el acceso deja de ser un detalle.

Hay otra señal importante. Un grupo no autorizado habría logrado acceder a Mythos a pesar de sus controles. Ese antecedente subraya que el problema no termina al poner una barrera. También importa cómo se vigila, cómo se actualiza y qué tan robusto es el sistema de validación.
Una IA útil, pero con cerradura
OpenAI asegura que trabaja con el gobierno de Estados Unidos y con usuarios con credenciales legítimas de ciberseguridad para ampliar el acceso sin soltar del todo el freno. El objetivo es que empresas y equipos defensivos puedan detectar agujeros, medir sus defensas y reaccionar antes de una intrusión real.
En la práctica, esto puede traducirse en auditorías más rápidas, análisis más profundos y respuesta inmediata ante amenazas complejas. Pero también deja una lección incómoda: cuanto más capaz se vuelve la IA, más importante es decidir quién toca el panel central.
La tecnología avanza como una casa cada vez más conectada. Y si el futuro tendrá más puertas inteligentes, también necesitará mejores llaves, mejores filtros y alguien vigilando el interruptor correcto.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.










