La inteligencia artificial ya no es solo cosa de laboratorios: también está en manos de ciberdelincuentes, hoy y en cualquier lugar donde te conectas. En las últimas semanas, expertos en ciberseguridad alertan de un salto cualitativo en las estafas que circulan por internet.
Con inteligencia artificial, los atacantes ajustan correos, mensajes y llamadas a tu perfil y a tu idioma, con detalles que antes no tenían. Ese brillo de autenticidad hace que el phishing y la suplantación de identidad se cuelen en tu rutina sin hacer ruido. Y cuando llegan los audios o vídeos falsos, el filtro humano se complica.
Los grupos criminales montan “granjas de engaños”: equipos y scripts que, apoyados en modelos de lenguaje y generadores de voz e imagen, crean miles de correos y publicaciones en minutos. Desde una misma “granja” salen plantillas, variaciones y respuestas automáticas para mantener viva la conversación.
El impacto ya se ve en cifras. Según el Internet Crime Complaint Center del FBI, las pérdidas denunciadas alcanzaron 12,5 mil millones de dólares en 2023, con un aumento interanual notable. No todo es culpa de la inteligencia artificial, pero los analistas vinculan parte del salto a campañas más verosímiles y a fraudes de suplantación cada vez más pulidos. “La IA no inventa delitos, acelera y profesionaliza los de siempre”.
Hoy en día, la inteligencia artificial genera texto sin faltas, imita tonos y saluda por tu nombre, y ahí es donde mucha gente baja la guardia. Hay señales que delatan la trampa si las miras con calma.
Primero, el phishing hiperpersonalizado. La inteligencia artificial cruza datos filtrados con tu huella pública y redacta mensajes que encajan con tus compras, tu empresa o tu barrio. Cambia el idioma sin acento extraño y contesta en tiempo real si dudas. El resultado es un intercambio que se siente legítimo y que te conduce a una web falsa o a un adjunto con malware.
También te puede interesar:Lo que Ocurre Dentro de las Empresas con la IA: Ilusión Desatada y Desorden EstratégicoSegundo, los deepfakes y la voz clonada. Con unos segundos de audio, un atacante puede generar una llamada “de urgencia” que suena familiar. Es común que te pidan una transferencia inmediata o un código de urgencia para que no lo pienses. Si lo comparas con estafas antiguas, el guion es similar, pero la puesta en escena es mucho más creíble.
La primera pista es el contexto que “sabe demasiado” de ti. Si un correo cita compras recientes o contactos internos, sospecha y busca errores de coherencia. La segunda es el canal que cambia a mitad de conversación: empiezan por email y te fuerzan a un chat o a una llamada “rápida”. Y la tercera, enlaces acortados que apuntan a webs extrañas, algo que puedes revisar con una búsqueda simple del dominio.
Los defensores también mejoran. Tu proveedor de correo y tu banco ya emplean inteligencia artificial para detectar patrones anómalos, y eso bloquea mucho ruido. Pero la carrera es simétrica: cuanto más filtra el sistema, más pulen los atacantes los señuelos. Si ves mensajes muy pulidos que insisten en saltarse procedimientos, prepárate para una suplantación.
Si te quedas con una idea, que sea esta: la inteligencia artificial no hace mágicos a los ciberdelincuentes, pero les da escala, velocidad y apariencia de verdad. Mantén la calma ante la urgencia, confirma por canales oficiales y asume que cualquier mensaje puede estar fabricado. Con esa rutina, es posible sortear la mayoría de las trampas que la inteligencia artificial pone hoy al servicio del cibercrimen.
También te puede interesar:Dos Expertos de Princeton Desinflan la Idea de la IA como Evolución Absoluta y Ponen el Foco en lo que sí CambiaráDirectora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.