Reddit volvió a demostrar que puede llevar cualquier historia a portada en cuestión de horas, incluso cuando esa historia es un montaje con IA. Y esta vez el supuesto “denunciante” de una app de reparto de comida resultó ser falso, aunque no antes de colar un relato perfectamente diseñado para que tú y yo nos lo creyéramos sin demasiadas dudas.
Las cifras acompañaron el espectáculo. El mensaje superó los 87.000 votos positivos en Reddit y saltó a X, donde acumuló 208.000 me gusta y 36,8 millones de impresiones. Pero claro, viral no significa verdadero; solo significa que ha tocado una tecla emocional muy concreta.
El supuesto denunciante se presentaba como alguien de dentro: un desarrollador con acceso a la trastienda de una gran plataforma de reparto. Decía estar borracho, escribiendo desde una biblioteca con Wi-Fi pública, en plan clandestino, como si estuviera filtrando secretos de Estado entre estanterías. Es un detalle absurdo, pero precisamente por eso funciona: lo absurdo a veces parece más real que lo pulido.
A ese marco se le sumaba el núcleo del relato: acusaba a la empresa de usar lagunas legales para quedarse con propinas y recortar salarios a repartidores con total impunidad. Y aquí está lo peligroso: esa acusación no suena a ciencia ficción.
Existe un antecedente real muy conocido, cuando DoorDash fue demandada por quedarse con propinas y terminó cerrando un acuerdo de 16,75 millones de dólares. Cuando algo así ya ha pasado, cualquier historia parecida entra directa por la puerta grande de nuestra credulidad.
También te puede interesar:Reddit apuesta por la inteligencia artificial para seducir a los usuarios de GoogleEsto no era el típico bulo cutre con cuatro capturas borrosas. El autor aportó lo que parecía una acreditación de empleado de UberEats y un supuesto documento interno de 18 páginas. Hace apenas dos años, ese nivel de “documentación” habría sido suficiente para pensar: nadie se curra esto para trolear.

Pero la IA generativa ha reventado el coste de producción del engaño. El documento describía el uso de IA para calcular un supuesto “índice de desesperación” de cada repartidor, una métrica oscura perfecta para volverse viral: suena a distopía corporativa, encaja con el imaginario de algoritmos amañados y se resume fácilmente en una frase indignante. El propio denunciante remataba con una línea de manual: la realidad era “más deprimente” que cualquier teoría conspiranoica.
El periodista Casey Newton, de Platformer, contactó con el autor y acabaron hablando por Signal, como suele ocurrir cuando una historia despega y empieza a reclamar verificación profesional. El dilema es conocido: si no verificas, amplificas; si verificas tarde, llegas cuando ya es tendencia.
Pero Newton empezó a detectar el patrón. No estaba ante un simple bulo para Reddit, sino ante algo más afinado: un montaje diseñado para atraer a un periodista al anzuelo. Él mismo señaló la clave psicológica del caso: durante años, un documento técnico largo “compraba” credibilidad por el simple tiempo y esfuerzo que parecía requerir escribirlo. Confundíamos esfuerzo con autenticidad. Con un LLM capaz de redactar textos coherentes y llenos de jerga interna en minutos, ese atajo mental deja de servir.
El problema no es solo el texto. Separar prueba de atrezo es cada vez más difícil cuando imágenes y vídeos sintéticos parecen reales a simple vista. Pero en este caso hubo una grieta en la máscara. Newton pudo confirmar que la imagen de la acreditación estaba generada con una herramienta de IA basada en Gemini, de Google.

El detalle clave fue SynthID, la marca de agua de Google diseñada para resistir recortes, compresión, filtros y otros trucos habituales para borrar huellas. Es decir, aunque el bulo intente “lavar” la imagen para que parezca una foto normal, la señal sigue ahí, al menos por ahora y no siempre.
También te puede interesar:Reddit refuerza su lucha contra los bots de IA con una verificación de usuarios más estrictaMax Spero, fundador de Pangram Labs, trabaja directamente en el problema de distinguir contenido real de contenido falso. Su empresa desarrolla herramientas para detectar texto generado por IA, justo el tipo de contenido que más se está desbordando en foros, reseñas y publicaciones virales. Pero Spero lanza una advertencia incómoda: el AI slop no solo ha empeorado por la expansión de los LLM, sino por los incentivos de las propias plataformas.
Existen empresas con millones de ingresos que pagan por lo que llaman “engagement orgánico” en Reddit, que en la práctica consiste en intentar hacerse viral con posts generados por IA que mencionan marcas.
Cuando el objetivo es vender y posicionar, la verdad pasa a segundo plano; lo importante es el alcance. Y aunque existan herramientas de detección, el problema estructural sigue siendo el mismo: cuando se demuestra que algo es falso, ya se ha compartido miles de veces.

El remate del caso roza lo cómico. Cuando una autora comentó que quería escribir sobre “el bulo viral de IA sobre reparto de comida” de ese fin de semana, su editora pensó que hablaba de otro distinto. Y tenía razón: hubo más de un bulo viral de IA sobre reparto ese mismo fin de semana en Reddit.
Estamos entrando en una fase en la que navegamos redes como detectives: leyendo con sospecha, desconfiando del “documento interno” perfecto y asumiendo que una historia muy bien construida puede haberse generado entre dos paradas de metro. La incógnita es si las plataformas se tomarán en serio el problema o si seguiremos premiando con likes al contenido que mejor finge ser verdad.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.