¿Alguna vez te quedaste mirando la pantalla de “crear contraseña” como si fuera un examen sorpresa? Entre redes sociales, foros, apps, juegos y servicios bancarios, la lista de cuentas crece. Y con ella, la tentación de pedirle a ChatGPT, Gemini o Claude una clave “fuerte” para salir del paso.
Sin embargo, un hallazgo de la empresa de seguridad Irregular revela una trampa: las contraseñas generadas por estas IA (LLM, modelos de lenguaje de gran tamaño) pueden parecer complejas, pero tienden a ser predecibles. Eso las vuelve más fáciles de descifrar de lo que la mayoría imagina.

En su comparación, Irregular les pidió a ChatGPT, Gemini y Claude contraseñas de 6 caracteres con números y letras. Y lo que apareció fue una pieza clave para entender el riesgo: repeticiones, patrones fijos y, en algunos casos, claves directamente duplicadas. Justo lo contrario de lo que se busca en seguridad.
La clave está en el mecanismo. Estos sistemas están entrenados para detectar y generar patrones de texto. Funcionan muy bien cuando tienen que escribir, resumir o imitar estilos. Pero cuando se les pide aleatoriedad (imprevisibilidad real), su “cableado” interno los empuja a lo familiar.
Ahí aparece el dato más inquietante del análisis. Claude Opus 4.6 fue el de peor desempeño: de 50 contraseñas generadas, solo 30 fueron únicas y 20 resultaron duplicados. Además, Irregular detectó un patrón central: el segundo carácter era casi siempre “7”. Y ciertos caracteres como “m”, “9”, “L”, “2”, “$” y “#” aparecían en todas las claves generadas por ese modelo.
Es decir: si una contraseña tiene “forma de Claude”, se vuelve más adivinable.
También te puede interesar:Qué Son los Artefactos de Claude y Cómo Usarlos Para Crear Aplicaciones Web Mediante IAChatGPT mostró un comportamiento diferente, pero no ideal. Generó 50 contraseñas distintas, sí. Repitió un engranaje de estilo: casi siempre arrancaba con “v” y usaba “Q” como segundo carácter. Gemini, por su lado, tendía a empezar con “k” y a ubicar una “P” en el segundo lugar, otra pauta sistemática.
El interruptor conceptual es este: en contraseñas, lo valioso es maximizar aleatoriedad y minimizar predictibilidad. Los LLM hacen lo inverso por diseño. Por eso, depender de IA generativa para crear claves es un uso inadecuado de la tecnología desde el punto de vista de la seguridad, incluso si la contraseña “parece” enredada.

¿Qué aplicación práctica deja este hallazgo? Primero, evitar reutilizar la misma contraseña en varios servicios: si una se filtra, cae el dominó. Segundo, para crear claves nuevas, conviene usar un generador de contraseñas dedicado (que sí está pensado para aleatoriedad) o un gestor de contraseñas con generador integrado.
Según el análisis, incluso golpear teclas aleatorias puede ser más seguro que pedirle una contraseña a Claude, porque al menos no arrastra patrones entrenados. Es una comparación incómoda, pero muy clara.
En un mundo donde la IA se mete en cada rincón, esta es una buena regla para escribir, la IA ayuda; para cerrar la puerta con llave, mejor confiar en un mecanismo hecho para no repetir nunca el mismo camino.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.