Según Bloomberg, el secretario del Tesoro, Scott Bessent, y el presidente de la Reserva Federal, Jerome Powell, animaron a ejecutivos bancarios a probar Mythos, el nuevo modelo de Anthropic, para detectar vulnerabilidades. El hallazgo no es menor: la Casa Blanca y la cúpula financiera estarían empujando a los bancos a usar una IA como herramienta de inspección.

JPMorgan Chase fue el único banco que apareció inicialmente como socio con acceso al sistema. Pero el mapa es más amplio: Goldman Sachs, Citigroup, Bank of America y Morgan Stanley también lo están evaluando. Es una señal clara de que la pieza clave ya no es solo el dinero, sino el cableado digital que lo sostiene.

Anthropic abre debate sobre ciberseguridad y control del mercado de IA, limitando a Mythos

Anthropic anunció hace poco Mythos y, al mismo tiempo, decidió limitar su acceso. La empresa sostiene que el modelo es especialmente eficaz para encontrar vulnerabilidades, pese a que no fue entrenado de forma específica para ciberseguridad. Es decir, el mecanismo parece haber aprendido a ver grietas en la pared sin haber sido diseñado solo para buscar rajaduras.

Mythos en sistemas financieros complejos revisa código, configuraciones y patrones de uso como quien sigue el recorrido de los cables dentro de una oficina. La IA no “adivina”: identifica una pieza floja, un engranaje expuesto o una puerta lateral que quedó sin llave.

Y ahí aparece la oportunidad para los bancos. En vez de esperar a que un atacante encuentre primero el fallo, pueden usar el modelo como un inspector previo. En lenguaje técnico, se trataría de detección de vulnerabilidades, es decir, la capacidad de localizar puntos débiles antes de que se conviertan en una brecha real.

Un modelo potente, pero con acceso restringido

La decisión de Anthropic de limitar el acceso también encendió preguntas. Algunas voces externas plantearon que esa cautela podría ser una exageración mediática o incluso una estrategia comercial orientada a grandes clientes empresariales, como sugirió una publicación en Bluesky. Cuando una herramienta promete tanto, la frontera entre prudencia y marketing se vuelve difusa.

Anthropic por ser demasiado peligroso, oculta su nuevo modelo de IA Mythos.

Además, el contexto político agrega tensión. Anthropic mantiene una disputa judicial con la administración Trump después de que el Departamento de Defensa la calificara como un riesgo para la cadena de suministro. Ese conflicto, según el Financial Times, surgió tras desacuerdos sobre los intentos de la empresa de restringir el uso de sus modelos por parte del gobierno.

La escena es llamativa. Por un lado, funcionarios de alto nivel alientan a la banca a probar Mythos. Por el otro, una parte del aparato estatal cuestiona a la misma empresa. Ese doble movimiento revela que la IA ya no es solo un producto tecnológico: es también una pieza central de seguridad económica y poder institucional.

Lo que cambia para los usuarios y reguladores

Lo que cambia para los usuarios y reguladores

Mientras tanto, reguladores financieros del Reino Unido también analizan los posibles riesgos del modelo. No solo importa si encuentra fallas. También importa quién lo usa, con qué límites y qué nuevas superficies de riesgo puede abrir una herramienta tan eficaz.

Para el usuario común, la traducción es directa. Si estos sistemas funcionan, podrían reforzar la seguridad de cuentas, transferencias y plataformas bancarias antes de que ocurra un incidente.

La promesa, por ahora, no es una banca perfecta. Es algo más concreto y valioso: tener un mejor interruptor para detectar dónde puede empezar el próximo cortocircuito digital.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios