¿Qué pasa cuando una herramienta es tan potente que un país prefiere verla por dentro antes de dejarla circular? Esa es la inquietud que hoy mueve a España: no esperar a que un fallo invisible golpee bancos, empresas o servicios esenciales para recién entonces mirar el problema.

La revelación llegó de la mano del ministro de Economía, Carlos Cuerpo. Según eldiario.es, España quiere pedir acceso temprano a Claude Mythos Preview, el modelo de IA de Anthropic, para evaluar vulnerabilidades en sistemas financieros europeos e infraestructuras críticas.

La Comisión Europea quiere posponer la aplicación de algunas partes de la ley de IA

El hallazgo clave no está solo en el sector bancario. Como ha dejado claro El Mundo, el Gobierno cree que Europa no puede quedar rezagada mientras otras regiones acceden antes a estas piezas de alto valor estratégico. Y aquí el acceso ya funciona como una forma de poder geopolítico.

“No podemos esperar”, viene a ser la idea central que subrayan desde el entorno económico europeo: primero entender el mecanismo y después decidir cómo ponerle límites.

También te puede interesar:Firefox Potencia su Seguridad con Claude Mythos y Confirma 423 Vulnerabilidades Corregidas en Un Mes

Mythos preocupa por una capacidad muy concreta: detectar backdoors (puertas traseras ocultas), es decir, entradas secretas que pueden quedar dentro de un sistema y permitir manipularlo sin que nadie lo note.

Además, Anthropic decidió no lanzar públicamente Mythos. La empresa teme que esa misma capacidad pueda usarse con fines maliciosos.

El freno regulatorio y la oportunidad europea

Europa, sin embargo, tiene otro problema sobre la mesa: su propia normativa. La Ley de IA de la Unión Europea clasifica a sistemas como Mythos como de alto riesgo (tecnología sometida a controles estrictos), lo que en la práctica dificulta su despliegue dentro del bloque.

Por eso las autoridades comunitarias estudian retrasar hasta diciembre de 2027 la aplicación plena de algunas obligaciones. Ese movimiento abriría una ventana de cerca de un año y medio para operar modelos avanzados en Europa sin cumplir todavía todos los requisitos actuales.

También te puede interesar:Firefox Potencia su Seguridad con Claude Mythos y Confirma 423 Vulnerabilidades Corregidas en Un Mes
También te puede interesar:Filtran 3000 Documentos de Anthropic y Aparece Claude Mythos con Grandes Riesgos
La ley de IA vigente del año pasado, define toda una serie de modelos de IA como sistemas de alto riesgo.

La pieza clave es que España no quiere una carrera en solitario. El Gobierno insiste en actuar bajo el paraguas de la Comisión Europea, para evitar un mapa fragmentado en el que cada país encienda y apague su propio interruptor regulatorio.

Mientras tanto, el Eurogrupo y el Banco Central Europeo ya analizan estos riesgos con supervisores financieros. Y, por ejemplo en Reino Unido, algunas instituciones ya obtuvieron acceso, algo que agranda la sensación de desventaja europea.

No todos compran la narrativa de Anthropic. Hay voces que citan una explicación menos épica: la empresa podría tener límites de capacidad de cómputo (potencia de procesamiento disponible) y usar el argumento del peligro para frenar una demanda que hoy no podría atender.

Pero incluso esa duda revela algo importante. Si una tecnología se vuelve tan escasa, tan regulada y tan sensible, deja de ser solo un producto. Pasa a ser una palanca de negociación entre bloques.

Para el ciudadano común, esto puede sonar lejano. No lo es. Si el sistema financiero, la energía o las grandes empresas dependen de herramientas que detectan fallos antes que nadie, quedarse fuera de ese acceso es como intentar proteger una casa sin poder ver el plano eléctrico. Y ese parece ser el mensaje de fondo de España: antes de que el engranaje falle, Europa quiere al menos mirar dentro de la central.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios