La búsqueda del autor del supuesto asesinato de Charlie Kirk expuso algo incómodo sobre cómo usamos la inteligencia artificial en momentos críticos. El FBI pidió ayuda pública con unas fotos borrosas y, en horas, internet se volcó a mejorarlas con IA.
Según reportes de prensa, el ataque ocurrió a plena luz del día durante un intercambio de ideas, y el caso se hizo viral en redes. Antes de señalar a un sospechoso, el FBI difundió varias imágenes de baja calidad para recibir pistas. Ahí comenzó la avalancha: usuarios probaron ChatGPT, Gemini y Grok para depixelar la cara del tirador y “aclarar” su ropa.
La investigación avanzó después y, siempre según esas mismas fuentes, las autoridades identificaron a Tyler Robinson, de 22 años, como principal sospechoso. Lo que pasó entre medias deja una lección clara para ti como lector digital. Muchas “mejoras” creadas con inteligencia artificial, se inventaron detalles.
Varias versiones generadas por IA cambiaron colores de prendas, deformaron rasgos faciales y hasta añadieron texturas que no existían. Algunas personas querían colaborar, y otras buscaban notoriedad aprovechando la polémica con montajes llamativos. Con todo, los investigadores marcaron distancia: las fotos originales siguieron como únicas pruebas válidas dentro del proceso.
En estos casos, la respuesta corta es que no del modo en que esperas. Cuando “depixelas” una imagen con inteligencia artificial, el modelo no “descubre” lo que falta, sino que extrapola a partir de su entrenamiento. En vez de recuperar el detalle real, genera el más probable según millones de ejemplos. Suena útil, pero introduce un riesgo silencioso: alucinaciones con apariencia de verdad.
Ese comportamiento es común a los modelos actuales, pese a su evolución. Si lo comparas con la app del móvil, piénsalo como un autocorrector visual: acierta muchas veces y, cuando falla, lo hace con seguridad aparente. Por eso, expertos en forense digital subrayan que las imágenes generadas o “mejoradas” por IA no deben tratarse como pruebas, especialmente cuando hay identificación de personas en juego.
También te puede interesar:El CEO de Klarna usa un avatar de IA para presentar resultados financierosNo es la primera vez que lo vemos. En marzo de 2023, la foto viral del Papa con un abrigo “puffer” mostró cómo una inteligencia artificial puede producir escenas convincentes y equivocadas. La diferencia ahora es que el ruido cae sobre una investigación sensible.
El hilo ético y legal es delicado. Cuando una imagen generada remodela una cara, desplaza el foco a una persona incorrecta. Ese método puede manipular o malinterpretar pruebas, y lo que empieza como colaboración termina afectando a un proceso criminal. La IA sí puede ayudar en otras tareas: ordenar avisos, transcribir llamadas y priorizar pistas, siempre separando con claridad qué es señal y qué es ruido.
Este caso, más allá del desenlace, deja una idea útil para ti: la inteligencia artificial no “recupera” detalles perdidos, los inventa con convicción. En contextos críticos como el judicial o policial, esa diferencia lo cambia todo. Conviene mirar con lupa cualquier foto depixelada que veas en redes y dar prioridad a la versión de escritorio de los hechos: las evidencias originales y verificadas.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.