La inteligencia artificial (IA) ha llegado a transformar muchos aspectos de nuestra vida cotidiana, pero, ¿te imaginas que una persona fallecida “hable” durante un juicio o ante los medios? Esa escena, que parecería sacada de una película, ya es una realidad.
A través de la generación de vídeos deepfakes, la IA no solo plantea riesgos y preocupaciones sobre manipulación, sino que también abre la puerta a nuevas maneras de dar visibilidad a víctimas y luchar contra la injusticia social.
En los últimos años, hemos visto cómo la tecnología puede ser aliada para que quienes perdieron la vida de manera violenta consigan “alzarse de nuevo” y expresar lo que no pudieron en su momento. Vas a poder descubrir cómo, en Estados Unidos y México, estas recreaciones digitales tuvieron un impacto en tribunales y sociedad, lanzando preguntas fundamentales sobre ética y regulación en nuevos usos de la IA.
Los vídeos deepfakes creados mediante inteligencia artificial consisten en recreaciones audiovisuales tan verosímiles que, a menudo, resultan difíciles de distinguir de grabaciones reales.
Por un lado, esta tecnología permite presentar versiones digitales, con imagen y voz, de personas ausentes o ya fallecidas. Muchos expertos alertan sobre el potencial para engañar, influir en emociones o manipular la narrativa de los hechos. ¿Dónde queda la línea entre homenaje y manipulación?
Si alguna vez imaginaste que una declaración ante un tribunal pudiera venir de “más allá”, el caso de Arizona lo ha hecho realidad. En 2021, durante un juicio por asesinato, la hermana de Christopher Pelkey propuso algo inédito: presentar el testimonio de su hermano asesinado a través de un avatar digital.
También te puede interesar:Google Lens ahora responde preguntas sobre videos en tiempo realGracias a herramientas de IA, lograron reconstruir su imagen y voz utilizando grabaciones caseras y fotografías. En el vídeo, la versión digital de Pelkey relata su paso por el ejército, expone sus creencias religiosas y transmite un mensaje de perdón a su agresor, invitando a reflexionar sobre el valor de la vida y el privilegio de envejecer.
El proceso no solo consistió en ensamblar palabras; también se empleó una fotografía tratada con filtros de envejecimiento para mostrar a Pelkey en la vejez, como si el tiempo no hubiera pasado. ¿El resultado? Un avatar que, según su hermana Stacey Wales, “capturaba fielmente su forma de pensar”, permitiendo a quienes le conocieron emocionarse como si estuvieran ante él.
Esta reconstrucción digital, que mezcló IA con recuerdos auténticos, fue desarrollada como herramienta de expresión simbólica, sin fines probatorios, pero con un profundo peso emocional.
Después de la presentación del vídeo, el tribunal impuso una condena de 10 años y medio de prisión al agresor, Gabriel Horcasitas. El juez Todd Lang reconoció que la grabación digital le permitió “imaginar realmente” qué habría sentido y dicho la víctima.
La defensa apeló, argumentando que la IA pudo influir en la decisión del juez por la intensidad emocional transmitida. En esta fase, la preocupación no está tanto en los hechos, sino en la potencial manipulación del estado de ánimo o la percepción de los participantes.
En Arizona, la ley permite que las víctimas y familiares empleen testimonios digitales durante ciertas etapas del juicio, donde no se juzgan los hechos directamente, sino que se busca expresar el impacto personal y emocional.
También te puede interesar:Claude en el Banquillo: Anthropic Admite Error de su Chatbot en Caso Legal por Derechos de AutorEsta apertura legislativa ha puesto sobre la mesa nuevos desafíos, ya que la tecnología avanza más rápido que las propias normas. Por todo ello, la presidenta de la Corte Suprema de Arizona, Ann Timmer, ha señalado tanto el potencial positivo de la IA como sus riesgos de entorpecer la justicia. Ante esta situación, se ha creado un comité especializado para regular los futuros usos judiciales de la inteligencia artificial.
Surge otra pregunta clave: ¿Quién responde si el contenido no es fiel a la realidad? La responsabilidad legal recae completamente en los usuarios, es decir, las personas o equipos que crean y presentan estos archivos, incluidos incluso los propios tribunales.
La necesidad de establecer normas claras implica decidir cómo se protege la integridad de los procesos judiciales y, sobre todo, cómo se asegura el respeto a la memoria y dignidad de las víctimas.
No se trata solo de Estados Unidos. Ya en 2019, la organización mexicana Propuesta Cívica lanzó la campaña “Seguimos Hablando” para luchar contra la violencia hacia periodistas y exigir justicia.
Esta iniciativa empleó tecnología de recreación digital para revivir a periodistas asesinados, entre ellos Javier Valdez, cuya imagen y voz artificial se dirigieron al presidente de México, pidiendo protección real y un alto a la violencia contra la prensa. ¿Te imaginas ver y oír un mensaje de alguien asesinado hace años llamando a la acción?
La finalidad principal fue concienciar al público y visibilizar la gravedad de la amenaza a la libertad de expresión en México. Mediante estos vídeos, la organización transmitió una realidad que, por cruda que sea, no siempre logra atención suficiente con los métodos tradicionales.
La campaña da la vuelta al uso negativo de los deepfakes para convertirlos en herramientas de denuncia eficaz y memoria colectiva.
Quizás te preguntes si el fin justifica los medios, cuando una recreación digital puede influir en la mirada de un jurado o incluso provocar cambios en sentencias. Aquí es donde aparecen los grandes dilemas éticos.
Por un lado, la IA puede ayudar a que las voces de las víctimas no caigan en el olvido. Por el otro, existe la preocupación por la manipulación emocional, la distorsión de hechos o incluso el uso malintencionado por parte de quienes buscan influir en decisiones judiciales o sociales. El equilibrio es tan delicado como urgente.
La figura de los comités reguladores y la demanda de marcos normativos claros y transparentes parecen ser el camino más sensato para evitar abusos y garantizar un uso responsable de estas tecnologías tan potentes.
Los usuarios y operadores de estas herramientas —familiares, abogados, activistas o tribunales— son quienes asumen el deber de verificar la autenticidad del contenido generado. Cualquier intento de manipulación, por sutil que sea, puede tener consecuencias legales y morales.
Por último, la obligación de actuar con ética recae en quienes utilizan la IA, haciendo necesario un esfuerzo conjunto para proteger tanto la justicia como la sensibilidad individual y colectiva.
El uso de inteligencia artificial para crear vídeos deepfakes ya impacta la forma en que víctimas y familiares buscan justicia e inspiran cambios sociales. Desde el inédito juicio en Arizona hasta campañas mediáticas en México, esta tecnología —tan capaz de emocionar como de levantar polémica— saca a la luz el doble filo de la innovación.
Vas a poder ver cómo, bien regulada y usada con responsabilidad, la IA ofrece una oportunidad para alzar voces silenciadas, aunque sigue siendo clave desarrollar normas y criterios que eviten abusos y garanticen un uso transparente y ético de estas herramientas.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.