OpenAI confirmó que restringirá el acceso a Cyber, su nueva herramienta de defensa digital, pese a que Sam Altman había criticado antes a Anthropic por hacer algo parecido con Mythos. En una publicación en X, el CEO había cuestionado esa estrategia. Ahora, el hallazgo es otro: OpenAI adoptará un mecanismo similar.

La empresa empezará a desplegar GPT-5.5 Cyber solo para “defensores críticos de ciberseguridad”. Es decir, profesionales y equipos que protegen sistemas sensibles. Para entrar, las personas envían información, acreditan credenciales y explican para qué usarán la herramienta.

GPT-5.5 Alcanza un 71,4% de Éxito en Ciberataques Avanzados Según el Reino Unido

La pieza clave es sencilla de entender: Cyber puede hacer pruebas de penetración, identificar y explotar vulnerabilidades y analizar malware con ingeniería inversa (desarmar un programa malicioso para ver cómo funciona). Ese poder sirve para encontrar fallos antes que los atacantes.

OpenAI sostiene que busca ampliar el acceso de forma segura y solo a usuarios con fines defensivos.

También te puede interesar:Yubico y OpenAI se unen para blindar cuentas de ChatGPT con llaves físicas

El acceso no será libre. OpenAI encendió un “interruptor” selectivo: deja pasar a algunos usuarios y mantiene la puerta cerrada para el resto. No se trata solo del modelo, sino del cableado de permisos que decide quién puede usar funciones más sensibles.

Además, la compañía ya opera con TAC, sigla de Trusted Access for Cyber, un sistema de verificación por niveles. Es un permiso escalonado, como las llaves de un edificio: no todos abren las mismas puertas, ni llegan a la misma sala de máquinas.

El filtro que cambia la estrategia

Según OpenAI, TAC ya incluye a miles de defensores verificados y a cientos de equipos responsables de software crítico. Esos usuarios pueden trabajar con modelos más permisivos, como GPT-5.4-Cyber, y más adelante con GPT-5.5-Cyber, con menos barreras de seguridad para tareas concretas.

También te puede interesar:Yubico y OpenAI se unen para blindar cuentas de ChatGPT con llaves físicas
También te puede interesar:OpenAI Agrega una Función de Mascotas Animadas e Importación de Configuración a Codex

El dato revela un cambio de tono. Altman había cuestionado que Anthropic limitara Mythos, incluso cuando algunos críticos decían que esas restricciones eran exageradas o puro miedo. Sin embargo, el propio mercado terminó empujando a OpenAI al mismo punto: cuando una herramienta puede defender y atacar, el acceso deja de ser un detalle.

Cuando una herramienta puede defender y atacar, el acceso deja de ser un detalle.

Hay otra señal importante. Un grupo no autorizado habría logrado acceder a Mythos a pesar de sus controles. Ese antecedente subraya que el problema no termina al poner una barrera. También importa cómo se vigila, cómo se actualiza y qué tan robusto es el sistema de validación.

Una IA útil, pero con cerradura

OpenAI asegura que trabaja con el gobierno de Estados Unidos y con usuarios con credenciales legítimas de ciberseguridad para ampliar el acceso sin soltar del todo el freno. El objetivo es que empresas y equipos defensivos puedan detectar agujeros, medir sus defensas y reaccionar antes de una intrusión real.

En la práctica, esto puede traducirse en auditorías más rápidas, análisis más profundos y respuesta inmediata ante amenazas complejas. Pero también deja una lección incómoda: cuanto más capaz se vuelve la IA, más importante es decidir quién toca el panel central.

La tecnología avanza como una casa cada vez más conectada. Y si el futuro tendrá más puertas inteligentes, también necesitará mejores llaves, mejores filtros y alguien vigilando el interruptor correcto.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios