Los últimos registros de la AI Incident Database, revelan que las estafas digitales impulsadas por inteligencia artificial entraron en una fase de expansión sin precedentes. El mecanismo central es el mismo: suplantación de identidad con contenidos generados por IA, en particular deepfakes (videos o audios falsos realistas).
Además, el estudio identifica más de una docena de casos recientes donde delincuentes usaron estas herramientas para fines de lucro. Aparecen videos falsos del presidente de Chipre, de periodistas suecos y del primer ministro de Australia Occidental, Robert Cook, todos promoviendo esquemas fraudulentos. También hay supuestos médicos recomendando productos online para dar una capa de legitimidad.

Según Simon Mylius, investigador del MIT, las capacidades actuales ya permiten que prácticamente cualquiera genere contenido falso. Y los datos de la base muestran una pieza clave: en los últimos meses predominan los fraudes y las manipulaciones dirigidas, hechos “a medida” para una víctima, no solo para grandes audiencias.
En paralelo, Fred Heiding, investigador de Harvard, advierte que el uso de estos modelos es tan barato que cualquiera puede acceder. Y subraya que la calidad mejora más rápido de lo que muchos especialistas esperaban.
La analogía más clara es doméstica: si antes falsificar una identidad era como copiar una llave a mano, hoy es como comprar una llave maestra barata en una ferretería. El “cableado” de la confianza digital —cara, voz, contexto— quedó expuesto. Y la IA funciona como un engranaje que acelera, abarata y personaliza el fraude.

Porque un deepfake (imitación audiovisual) no solo “se parece” a alguien. Puede copiar gestos, tono y ritmo. Y cuando ese contenido llega en el momento justo, con presión y urgencia, actúa como un interruptor emocional: empuja a obedecer antes de verificar.
Un caso de alto perfil ocurrió en una multinacional de Singapur. Un responsable financiero transfirió cerca de 500.000 dólares tras una videollamada manipulada con deepfakes que imitaban a sus superiores. La estafa no necesitó malware. Solo necesitó una escena creíble.
La clave del cambio es el abaratamiento y la mejora de los modelos de IA. Ese combo acelera la producción de videos, audios e imágenes falsificados personalizados y de bajo coste. En términos simples: se pasó de “artesanía” a línea de montaje.
El Reino Unido ofrece otra señal del tamaño del problema: se estiman pérdidas de 9.400 millones de libras por fraudes entre febrero y noviembre de 2025, parte de ellos ligados a estafas potenciadas por IA. No es un daño abstracto. Es dinero que sale de cuentas reales, a partir de contenidos que parecen legítimos.

Incluso la puerta de entrada a un trabajo puede ser un frente de ataque. Jason Rebholz, CEO de una empresa de seguridad de IA, contó que lo contactó un supuesto candidato cuya imagen era generada por IA. En la videollamada, el entorno y los bordes del rostro se percibían artificiales y poco definidos. Tras consultar con una firma especializada en detección de deepfakes, confirmó el fraude.
El objetivo exacto no se determinó, pero el riesgo es claro: cobrar un salario sin existir o, más grave, acceder a información confidencial. Rebholz advierte que esto ya no se limita a grandes corporaciones: si su empresa es objetivo, cualquier organización puede serlo.
Entonces, ¿qué aplicación práctica deja este hallazgo? Primero, asumir que la imagen y la voz ya no son prueba suficiente. Segundo, reforzar rituales simples: pactar una palabra clave familiar, confirmar pagos por un segundo canal y desconfiar de la urgencia “perfecta”.
Los expertos anticipan que el problema crecerá con la clonación de voz y video (copiar timbre y gestos). Heiding advierte un riesgo mayor: una posible pérdida generalizada de confianza en instituciones y materiales digitales, hasta una “ausencia total de confianza”.
La oportunidad, paradójicamente, es recuperar un hábito viejo en un mundo nuevo: verificar antes de actuar. Como revisar dos veces la cerradura cuando la llave ya no alcanza.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.