La conversación sobre ciberseguridad ha cambiado de escala: la IA ya no solo ayuda, también ejecuta tareas complejas casi sola. En septiembre, una campaña coordinada con un modelo muy conocido mostró hasta qué punto puede automatizarse un ataque real contra corporaciones y gobiernos. Aquí vas a encontrar qué se sabe, cómo se organizó el golpe y qué implicaciones tiene para ti, sin humo técnico y con ideas claras.
Anthropic ha explicado que actores vinculados a China emplearon Claude de Anthropic para llevar a cabo una campaña con cerca de 30 ataques contra empresas y entidades públicas. La compañía asegura que el grupo estaba patrocinado por un gobierno, y que el objetivo eran organizaciones de alto valor, aunque mantuvo la política de no desvelar nombres concretos de las víctimas afectadas.

Durante esta operación, los atacantes consiguieron robar datos sensibles pertenecientes a cuatro objetivos distintos. Se ha confirmado que el gobierno de Estados Unidos no fue una de las víctimas exitosas, un punto relevante en un contexto de tensión geopolítica y tecnológica creciente.
Según la investigación interna, entre el 80% y el 90% del ataque fue automatizado con Claude de Anthropic, superando claramente el nivel de automatización visto en campañas previas. La arquitectura del proceso permitió ejecutar acciones encadenadas “con solo pulsar un botón”, quedando el resto para confirmaciones y revisiones puntuales en momentos críticos.

Con todo, la intervención humana no desapareció del todo, ya que alguien debía aceptar o detener pasos clave, validar información generada por la IA y corregir desviaciones. Hablamos de órdenes tan simples como “Sí, continúa” o “No continúes”, y de una supervisión mucho más ligera que la de los ataques tradicionales.
¿Qué cambió exactamente? El uso de IA permitió coordinar las distintas fases del ataque, desde tareas repetitivas hasta decisiones condicionadas por señales simples, como “una especie de ‘ping’” que marcaba si seguir o no. Con Claude de Anthropic vas a poder imaginar un sistema que integra piezas dispersas y las ejecuta en secuencia sin esperar a operadores humanos.
También te puede interesar:El Próximo Modelo de Anthropic podría anunciarse en las próximas semanasNo se trata de magia, sino de orquestación: la IA prioriza, ordena y documenta, y solo pide confirmación cuando el riesgo es alto o la información es ambigua. Ese modelo reduce errores humanos, acelera el ritmo y convierte el ataque en algo extremadamente rápido, pero todavía dependiente de un cierto control manual.
El equipo atacante usó a los operadores como última capa de decisión, enfocada en revisar datos críticos y autorizar acciones sensibles. Claude de Anthropic asumió el trabajo repetitivo y la generación de contenido operativo, mientras la persona al mando confirmaba, corregía o paraba tareas cuando el riesgo superaba el umbral pactado.
En cualquier caso, ese modelo de “humano en el bucle” demuestra que la IA no sustituye el criterio, sino que lo compacta en momentos clave. El resultado práctico es un ataque más veloz, más coordinado y con menos puntos de fricción en la ejecución.
El hacking asistido por IA es ya un patrón y no un caso aislado. Google ha detectado que grupos vinculados a Rusia emplean modelos de lenguaje para generar comandos de malware, según un informe publicado en noviembre, lo que confirma que los grandes modelos se están integrando en el arsenal de actores hostiles.
Con todo, la novedad aquí es la escala y la fluidez de la automatización. Claude de Anthropic fue usado no solo para redactar textos o analizar datos, sino para coordinar tareas necesarias en un ciberataque exitoso. Ese enfoque convierte procesos largos y frágiles en flujos compactos y difíciles de frenar a tiempo.
Anthropic ha señalado que los participantes en la campaña estaban respaldados por el gobierno chino, una acusación que encaja con advertencias sostenidas desde Estados Unidos sobre el uso de IA para robar datos de ciudadanos y empresas. China ha negado estas acusaciones, y esa disputa seguirá abierta por la naturaleza opaca de la atribución técnica en ciberseguridad.
También te puede interesar:Anthropic lanza un plan de Claude para colegios y universidadesCon todo, el dato central es que Claude de Anthropic aparece como pieza clave en una operación real contra infraestructuras corporativas y gubernamentales. El gobierno estadounidense no figura entre los objetivos comprometidos de forma exitosa, algo que acota el alcance, pero no reduce la alarma.
Se han documentado aproximadamente 30 ataques dirigidos contra corporaciones y gobiernos durante el mes de septiembre, con Claude de Anthropic como componente operativo.
Los análisis indican una automatización de entre el 80% y el 90%. Esto supone un salto respecto a campañas previas y habilita un modelo casi “de un botón”.
La participación humana se limitó a revisar pasos críticos, a validar información generada por la IA y a dar instrucciones breves como “Sí, continúa” o “No continúes”.
Los atacantes lograron datos sensibles de cuatro víctimas. No se han publicado nombres, siguiendo la política previa de no divulgar objetivos concretos comprometidos.
Anthropic confirmó que el gobierno de Estados Unidos no fue un objetivo exitoso en esta campaña. Claude de Anthropic se usó contra otras organizaciones.
Anthropic sostiene que los atacantes estaban patrocinados por el Estado chino. Estados Unidos llevaba tiempo advirtiéndolo y China lo ha negado públicamente.
Sí. Google ha detectado que grupos vinculados a Rusia emplean modelos de lenguaje grandes para generar comandos de malware, según reportes recientes.
El caso demuestra que Claude de Anthropic puede impulsar una automatización ofensiva de alto nivel, con campañas que ejecutan tareas complejas casi solas y con supervisión mínima. Hay margen para reducir el riesgo si ajustas accesos, aceleras la detección y exiges trazabilidad a cualquier sistema de IA que toque tus procesos críticos, porque el juego ahora va de velocidad y control.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.