DoorDash acaba de protagonizar una de esas historias virales que parecen un chiste… hasta que la empresa las confirma. Un repartidor habría fingido una entrega utilizando una imagen generada por inteligencia artificial, y el caso terminó con una cuenta eliminada y un cliente reembolsado.
El relato tiene todos los ingredientes del fraude moderno: velocidad, automatización y una imagen presentada como “prueba” que, en teoría, cierra cualquier discusión. Solo que esta vez la foto no habría salido de una cámara, sino de un modelo generativo.
Quien lo contó fue Byrne Hobart, residente en Austin, quien publicó en X que el repartidor aceptó el encargo y lo marcó como entregado casi al instante. A continuación, adjuntó una foto en la que supuestamente se veía el pedido de DoorDash “dejado” en la puerta de su casa.
Hobart comparó esa imagen con una foto real de su entrada y señaló que no coincidían. No era una sombra rara ni un ángulo extraño, sino una puerta que directamente parecía otra. Para 2026, todos hemos visto suficientes imágenes sintéticas como para levantar una ceja cuando algo “huele” a generativo. Y si además la prueba de entrega se basa en una foto, la tentación de manipularla es enorme.
Durante años, la foto ha sido el comodín de la logística de última milla: “aquí está tu bolsa en la puerta” y asunto cerrado. La imagen funcionaba como cierre automático del proceso.
Lo que describe Hobart encaja con un patrón clásico de entrega fantasma: aceptar el pedido, marcarlo como entregado y subir una imagen como evidencia. El fraude no requiere gran ingeniería social; solo necesita que el sistema asuma que una foto equivale a realidad.
El problema es que ese supuesto ya no se sostiene. Hoy puedes generar una imagen plausible de una bolsa sobre un felpudo en segundos. Y si además puedes aproximar elementos del entorno (colores, suelo, tipo de puerta), el resultado se vuelve peligrosamente convincente en móvil, que es donde se revisa casi todo.
A esto se suma un problema de diseño de producto: muchas apps de reparto almacenan o muestran imágenes de entregas previas para ayudar al repartidor a identificar el punto exacto. Lo que está pensado para reducir errores también puede convertirse en munición para el abuso.
Tras ganar atención, Hobart añadió un matiz clave que suele pasarse por alto: reconoció que su historia sería “bastante fácil” de falsificar. Lejos de restarle fuerza, esa frase pone el foco donde duele.
Si cualquiera entiende que este tipo de engaño es sencillo de montar, el problema ya no es solo un repartidor concreto, sino la fragilidad del sistema de verificación. No hace falta un genio: basta con aprovechar una confianza que ya no encaja con el contexto tecnológico actual.

Aun así, Hobart aportó otro dato relevante. En el mismo hilo, otra persona comentó que le habría ocurrido algo similar en Austin, con el mismo nombre de repartidor mostrado en la app. Dos casos no son una auditoría, pero sí el tipo de coincidencia que dispara alarmas internas por riesgo reputacional.
Hobart especuló con que el fraude podría haberse realizado usando una cuenta hackeada en un teléfono con jailbreak. No necesariamente un repartidor “brillante”, sino un vector clásico: credenciales robadas, dispositivo modificado y automatizaciones o apps alteradas para esquivar controles.
Si alguien controla una cuenta ajena, puede aceptar pedidos y ejecutar el fraude en volumen hasta que salten las alarmas. No es ciencia ficción; es el mismo patrón que vemos en marketplaces y servicios financieros cuando hay cuentas comprometidas.
A esto se añade otra hipótesis inquietante: el uso de fotos de entregas anteriores como referencia. Si ya existe una imagen real de la puerta, puede servir como base para generar otra “parecida” con una bolsa distinta delante.
No hace falta que la IA sea perfecta. Solo tiene que pasar el test de pantalla pequeña y el test de la prisa: miras la notificación, ves una foto y asumes que todo está bien.
Un portavoz de DoorDash confirmó a TechCrunch que, tras investigar el incidente, la compañía eliminó permanentemente la cuenta del repartidor. Es la respuesta mínima aceptable ante una sospecha de fraude: cortar acceso, revisar trazas y evitar la repetición.

DoorDash también aseguró que el cliente fue compensado para dejarlo “made whole”. El reembolso es casi higiene básica, pero lo relevante es otra cosa: la empresa trató el caso como un incidente real, no como un simple malentendido.
Ese matiz importa, porque reconoce implícitamente que el sistema puede fallar y que la amenaza no es teórica.
DoorDash afirma tener tolerancia cero con el fraude y usar una combinación de tecnología y revisión humana para detectarlo. Es la fórmula híbrida de siempre: automatización para escalar y personas para decidir en los casos grises.
El desafío ahora es distinto. La prueba basada en imagen está perdiendo valor probatorio. Si una foto puede ser sintética, el futuro pasa por señales más difíciles de falsificar: metadatos del dispositivo, consistencia temporal, geolocalización robusta, patrones de comportamiento e incluso verificaciones activas durante la entrega.
Pero cada capa de seguridad añade fricción a los repartidores legítimos. Ahí está el equilibrio complicado: proteger al usuario sin convertir cada entrega en un control aeroportuario.
Este caso deja algo claro: la IA no solo está en los grandes titulares sobre chatbots y modelos gigantes. También está en la picaresca cotidiana, en el pequeño fraude que escala porque la herramienta ya viene “en la caja”.
DoorDash ha reaccionado rápido esta vez. Habrá que ver si se queda en una anécdota viral o si estamos ante el inicio de una nueva oleada de entregas fantasma, donde la imagen (paradójicamente) ya no prueba nada.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.