La inteligencia artificial vuelve a colocarse en el centro del debate sobre seguridad global. Dario Amodei, cofundador y CEO de Anthropic, reveló que actores estatales de Corea del Norte y un grupo chino han intentado manipular a Claude, su modelo de IA, para ejecutar fraudes laborales, campañas de ransomware y ataques contra infraestructura crítica.
La advertencia se hizo pública durante la conferencia Inbound de HubSpot en San Francisco, donde Amodei subrayó que la compañía enfrenta tanto riesgos de alineación a largo plazo como amenazas urgentes de seguridad.
El más reciente Informe de Inteligencia de Amenazas de Anthropic expone casos concretos en los que la IA fue utilizada con fines delictivos. En uno de ellos, un grupo de Corea del Norte aprovechó a Claude para simular competencias técnicas y obtener empleos remotos en empresas tecnológicas occidentales, canalizando los ingresos hacia los programas armamentistas del régimen. Según el reporte, los operadores dependían del sistema para programar, aprobar entrevistas y comunicarse en inglés.
En paralelo, se documentó un intento de “vibe hacking” en el que criminales explotaron Claude Code para automatizar reconocimiento de sistemas, robo de credenciales y penetración en al menos 17 organizaciones de sectores sensibles como salud, gobierno y servicios de emergencia.
A diferencia de los ataques tradicionales, en lugar de cifrar la información, los ciberdelincuentes exfiltraron datos confidenciales y exigieron rescates superiores a 500.000 dólares, apoyándose en Claude para redactar notas de extorsión en HTML y calcular los montos más efectivos.
Amodei afirmó que Anthropic ha tomado medidas para contener estos abusos, restringiendo el acceso a ciertos productos experimentales y reforzando la vigilancia. No obstante, admitió que los ataques de inyección de prompts siguen siendo una amenaza latente: “No estamos completamente a salvo… nuestra esperanza es avanzar hacia una versión segura para las empresas”, señaló.
También te puede interesar:Anthropic recluta al cofundador de OpenAI Durk KingmaEl directivo recalcó que su compañía busca ser más transparente que la competencia al publicar estos incidentes. Sin embargo, planteó una preocupación inquietante: si solo Anthropic los comunica, ¿significa que otras compañías simplemente no los reportan o que no están detectando estos intentos?
La situación pone sobre la mesa un dilema clave para la adopción empresarial de la inteligencia artificial: ¿cómo garantizar que los modelos no se conviertan en herramientas de cibercrimen? Amodei advirtió sobre riesgos de privacidad de datos, protección de marca y confianza en sistemas críticos.
Los recientes hallazgos confirman lo que expertos en ciberseguridad ya anticipaban: la IA generativa no solo potencia la productividad, también amplifica la capacidad de los ciberdelincuentes para escalar operaciones. En este contexto, gobiernos y empresas se ven obligados a reforzar estrategias de seguridad digital y a presionar por una regulación internacional del uso de la IA, un tema que ya se discute en foros como el Consejo de Europa y la Unión Europea.
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.