X, la red social de Elon Musk, está coqueteando con una idea que suena bien en titulares, pero mucho peor cuando se aterriza en la práctica: etiquetar imágenes editadas como “manipulated media”. La “confirmación” llega, además, en el ya clásico estilo Musk, con un post críptico que incluye el texto “Edited visuals warning”, publicado al republicar un anuncio de una cuenta afín.
En concreto, el anuncio original lo lanzó DogeDesigner, una cuenta anónima que suele funcionar como altavoz oficioso dentro del ecosistema de X: publica la novedad y Musk la amplifica con un retuit y un par de palabras. Sin embargo, el detalle realmente importante no es el nombre de la etiqueta, sino qué demonios considera X una imagen “editada”.
Hoy, prácticamente todo está “editado” de una forma u otra, desde un recorte rápido hasta un relleno generativo capaz de borrar objetos como si nunca hubieran estado ahí. Esa ambigüedad es justo donde empiezan los problemas.
X no ha aclarado cómo determinará si una imagen está editada ni qué señales utilizará para tomar esa decisión. Tampoco está claro si entrarán en el mismo saco las ediciones tradicionales con herramientas como Adobe Photoshop, o si el foco estará puesto únicamente en IA generativa y deepfakes.
No es lo mismo ajustar la exposición de una fotografía que inventar una escena que jamás existió, y mezclar ambos escenarios bajo una sola etiqueta puede generar más confusión que claridad. A esto se suma un matiz político-mediático evidente: DogeDesigner sugiere que este aviso podría dificultar que los “medios tradicionales” difundan imágenes o clips engañosos.
El problema es que, si el sistema es opaco, la etiqueta corre el riesgo de convertirse en un arma arrojadiza, útil para señalar al otro pero poco eficaz para informar al usuario. “Manipulated media” suena a seguridad y rigor, pero si no se conocen las reglas que activan la advertencia, lo único que queda es una pegatina con autoridad y poca explicación.
Este movimiento no surge de la nada. Antes de la compra y el cambio de nombre, Twitter ya etiquetaba tuits con contenido manipulado o fabricado como alternativa a eliminarlos. El enfoque era claro: “te lo dejo ver, pero te aviso”, una fórmula que buscaba aportar contexto sin recurrir directamente a la censura.
Un detalle que muchos olvidan es que esta política no se limitaba a deepfakes o modelos generativos. En 2020, Yoel Roth, entonces responsable de integridad, explicó que también incluía recorte selectivo, ralentización, doblaje o manipulación de subtítulos, prácticas que podían alterar el significado original de un contenido.

Lo que no está claro ahora es si X recuperará esas reglas, si las endurecerá o si las adaptará para “perseguir IA”, incluso cuando la manipulación no tenga nada que ver con inteligencia artificial. Aquí la precisión lo es todo: una norma demasiado amplia etiqueta medio internet; una demasiado estrecha deja pasar lo verdaderamente peligroso.
La documentación de ayuda de X ya recoge una política contra la difusión de “media inauthentic” (medios inauténticos), pero el historial reciente sugiere que esta política se aplica poco, tarde o de forma desigual.
El artículo que origina este debate menciona un episodio reciente de deepfake debacle, con usuarios compartiendo imágenes desnudas no consentidas sin que el sistema pareciera reaccionar con la rapidez necesaria. El problema, por tanto, no es solo detectar lo falso, sino reaccionar y hacerlo a escala.
También te puede interesar:Elon Musk y Sam Altman se enfrentan en X por el proyecto Stargate de OpenAIA esto se suma un dato incómodo: incluso instituciones como la Casa Blanca han compartido imágenes manipuladas. Si hasta organismos oficiales caen en el “esto cuela”, etiquetar correctamente se convierte en una cuestión de higiene pública, no de postureo tecnológico.
Sin embargo, si X es —como suele describirse— un campo de juego para propaganda política nacional e internacional, la plataforma debería explicar con detalle qué considera “editado” y bajo qué criterios, en lugar de limitarse a anunciar una etiqueta genérica.
Existe un precedente claro que ilustra el problema. En 2024, Meta intentó etiquetar imágenes de IA y el sistema falló, llegando a marcar fotos reales como “Made with AI”, aunque no hubieran sido generadas desde cero.
El detector confundía “hecha por IA” con “tocada por una herramienta que usa IA en algún punto del proceso”. Este error expuso el elefante en la habitación: las funciones de IA están cada vez más integradas en herramientas creativas que fotógrafos y diseñadores utilizan a diario.

Incluso operaciones aparentemente inocentes pueden alterar cómo se guarda un archivo y disparar alarmas automáticas. Se citó un caso muy gráfico en el que un simple recorte en Adobe podía “aplanar” la imagen antes de guardarla en JPEG, activando el detector de Meta.
También se mencionó Adobe Generative AI Fill, usado para eliminar reflejos u objetos molestos, que acababa provocando la etiqueta aunque la foto siguiera siendo esencialmente real. Meta terminó reculando en el lenguaje y cambió “Made with AI” por “AI info”, para evitar afirmaciones tajantes que el sistema no podía garantizar.
Si el objetivo es ir más allá del simple “me parece editada”, existen iniciativas centradas en procedencia y autenticidad. La C2PA (Coalition for Content Provenance and Authenticity) busca añadir metadatos resistentes a manipulaciones que indiquen de dónde viene una imagen y qué se le ha hecho.
A su alrededor existe todo un ecosistema, como CAI (Content Authenticity Initiative) y Project Origin, que empujan en la misma dirección. Sin embargo, esto no es magia: si el contenido no se firma o no conserva su cadena de procedencia, el sistema se queda ciego.
Aquí hay un detalle llamativo: X no figura como miembro de la C2PA, mientras que en su steering committee aparecen nombres como Microsoft, BBC, Adobe, Arm, Intel, Sony u OpenAI. Si X quiere vender “avisos de visuales editados” como algo serio, sería razonable saber si se apoyará en estándares abiertos o en un detector interno tipo caja negra.
Etiquetar algo como “contenido manipulado” o “imagen de IA” es matizado, discutible y, en muchos casos, imposible de probar con total certeza. Por eso, también debería existir un mecanismo claro para disputar una etiqueta, algo más sólido que depender únicamente de Community Notes, que funcionan por crowdsourcing y no siempre llegan a tiempo.

Sin documentación pública, el usuario se queda con lo de siempre: sospecha, ruido y bandos. Otras plataformas también están lidiando con este problema: TikTok etiqueta, Meta etiqueta, Deezer y Spotify avanzan con música generada por IA, y Google Photos ya usa C2PA para indicar procedencia.
El sector se mueve hacia el “esto tiene contexto”, no hacia el “esto se borra”. El reto real para X no es anunciar una etiqueta con dos palabras, sino demostrar que puede aplicarla con reglas claras, pocos falsos positivos y sin arbitrariedad.
Hasta que Musk explique el alcance real —si afecta solo a IA, a cualquier edición o incluso a un simple recorte—, esto huele más a teaser que a una política de integridad sólida. Tocará esperar para ver si el “Edited visuals warning” se convierte en un paso hacia la transparencia… o en otra capa más de confusión en el timeline.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.