Imagína entrar en X para informarte del tiroteo masivo en Bondi Beach, Australia, y el propio chatbot entrega versiones distintas de lo que ha pasado. Algunas se contradicen, otras mencionan a personas que no tienen nada que ver y, para rematar, hasta duda de los vídeos que ya circulan por todas partes. En este caso, el chatbot de xAI, integrado en X y asociado a Elon Musk, no solo se ha equivocado, sino que ha ayudado a mover desinformación en un momento especialmente delicado.
Para entender el alcance del problema, conviene ver primero quién es quién. Grok es un chatbot creado por xAI, la compañía de inteligencia artificial impulsada por Elon Musk, y se ha popularizado porque está integrado directamente en la red social X. Cuando ocurre un suceso grave, como un tiroteo masivo, muchos usuarios prueban a preguntarle a la IA qué ha pasado, esperando una explicación rápida.

En el tiroteo de Bondi Beach, ocurrido en Australia, el comportamiento de Grok se ha convertido en un ejemplo claro de cómo una IA generativa puede propagar errores a gran velocidad. En vez de ofrecer una versión prudente y bien contrastada, el chatbot ha ido publicando respuestas distintas, algunas contradictorias entre sí, que han terminado generando más confusión sobre lo que ocurrió en la escena del ataque.
Una de las claves de este caso está en la figura del ciudadano que se lanzó contra uno de los atacantes para desarmarlo. El hombre que realmente intervino en el tiroteo de Bondi Beach se llama Ahmed al Ahmed, tiene 43 años y es de origen sirio. Su actuación quedó registrada en varios vídeos y fotos que empezaron a circular rápidamente por redes y medios de comunicación.
Cuando usuarios preguntaron a Grok quién era este viandante, el chatbot comenzó a dar versiones equivocadas. En lugar de reconocer a Ahmed al Ahmed desde el principio, empezó a asociar la acción heroica a otras identidades. Esto no fue un simple lapsus, porque la confusión se repitió en varias publicaciones, generando dudas sobre quién había sido realmente la persona que se enfrentó al atacante.
En una de sus respuestas más llamativas, Grok afirmó que la persona que había desarmado a uno de los tiradores se llamaba Edward Crabtree. Lo describió incluso como un “profesional de TI y arquitecto de soluciones sénior de 43 años”, dando una sensación de detalle y precisión que, en realidad, no tenía ningún soporte en los hechos reales del tiroteo de Bondi Beach.
También te puede interesar:xAI de Elon Musk lanza su API de GrokLa IA no se inventó el nombre de la nada. Más tarde, Grok explicó que esta confusión venía de una serie de publicaciones virales que circulaban en X y en otras páginas. En ellas se identificaba por error a Ahmed al Ahmed como Edward Crabtree, probablemente por una broma que hacía referencia a un personaje ficticio o por un fallo de información en cadena. El problema es que el chatbot trató ese contenido dudoso como si fuera fiable, sin aplicar filtros suficientes.
Con el paso de las horas, y cuando ya se había publicado información sólida sobre el tiroteo, Grok empezó a corregir su relato. El chatbot acabó por reconocer de forma explícita que la persona que intervino en el ataque fue Ahmed al Ahmed, el hombre de 43 años que aparece en los vídeos y fotografías desarmando a uno de los atacantes en Bondi Beach.
Según explicó el propio sistema, la causa de la confusión fueron esas publicaciones virales que mezclaban el nombre real con el de Edward Crabtree. En su justificación, Grok llegó a decir que podría tratarse de un fallo de información o incluso de una broma basada en un personaje inventado. Para cuando la corrección llegó, las versiones equivocadas ya se habían difundido y la desinformación generada por IA había dejado huella en la conversación pública.
La mala gestión de la identidad del héroe de Bondi Beach no fue el único problema. En varias respuestas relacionadas con el tiroteo, Grok también dudó de la autenticidad de los materiales visuales que ya circulaban. En vez de tomar las imágenes como parte de una investigación en curso, el chatbot llegó a poner en cuestión algunos vídeos y fotos que mostraban la intervención de Ahmed al Ahmed.
Las respuestas no se quedaron solo en esa duda. El chatbot llegó a mezclar el caso con otras narrativas ajenas al contexto australiano, generando una especie de relato híbrido que nada tenía que ver con lo que estaba pasando en Bondi Beach. Esto agrava la situación, porque muchas personas consultan a la IA buscando claridad y se encontraron con interpretaciones equivocadas que combinaban noticias reales y contenidos fuera de lugar.
También te puede interesar:Elon Musk anuncia el lanzamiento de Grok 3En una de las respuestas más problemáticas, Grok identificó erróneamente a la persona que aparecía en una foto del tiroteo como si fuera un rehén israelí. Esta afirmación no encajaba ni con la información oficial de las autoridades australianas ni con el contexto del suceso, pero aun así la IA presentó esa descripción como si fuera un dato relevante.
Esta mezcla de escenarios es típica de una IA generativa que intenta rellenar huecos con piezas de información sacadas de otros conflictos. El resultado es un mensaje que suena verosímil si no estás muy pendiente, pero que introduce una confusión peligrosa entre lo que ocurre en Bondi Beach y lo que pasa en otras zonas de conflicto, como Oriente Medio.
En otra interacción, al hablar del tiroteo masivo, Grok empezó a introducir comentarios sobre el trato del ejército israelí hacia los palestinos. Esa información, que puede ser relevante en otros debates políticos, no tenía ninguna relación directa con el ataque en Australia, pero aun así apareció mezclada en la respuesta del chatbot.
Este tipo de desvíos muestra uno de los riesgos de preguntar a una IA como Grok por una noticia concreta: en lugar de centrarse en el suceso, el sistema puede “engancharse” a temas polémicos donde ya hay mucho contenido y opiniones. De este modo, la noticia generada por IA deja de ser una explicación de lo que ha pasado en Bondi Beach y se convierte en una especie de comentario general sobre otros conflictos.
Otro ejemplo llamativo fue una respuesta donde Grok afirmó que uno de los vídeos del tiroteo de Bondi Beach no mostraba el ataque, sino el ciclón Alfred. Esta afirmación, completamente fuera de lugar, reforzó aún más la sensación de caos informativo que estaba creando el chatbot en torno al suceso australiano.
Al menos en este caso, el sistema terminó marcando la información como corregida tras una “reevaluación”. Esto significa que, en una consulta posterior, la respuesta de Grok ya no repetía esa explicación del ciclón Alfred. Durante un tiempo, la versión equivocada estuvo disponible, y quienes la leyeron se encontraron con un ejemplo más de cómo la IA puede fallar al interpretar vídeos virales en plena crisis.
Una parte clave de este caso es entender de dónde salió la identidad falsa de Edward Crabtree. La pista lleva a una web de noticias casi no funcional que, según el análisis de medios como Gizmodo, podría estar generada en gran parte por inteligencia artificial. Se trata de una página con aspecto de medio informativo, pero con enlaces rotos y una sensación general de abandono.
En esa web apareció un artículo que atribuía la acción heroica del tiroteo de Bondi Beach a un tal Edward Crabtree, presentándolo como un profesional de TI y arquitecto de soluciones. Aunque el contenido tenía un tono más o menos “serio”, todo apuntaba a que estaba creado de forma automática, sin periodistas ni verificación real. Y aquí es donde entra el problema principal: Grok tomó esa pieza como una fuente válida.
Cuando un chatbot como Grok responde sobre una noticia reciente, tira de muchas fuentes en paralelo: medios globales, redes sociales, blogs, foros y, cada vez más, páginas generadas por IA. Si el sistema no distingue bien entre un medio fiable y una web casi fantasma, el riesgo de desinformación se dispara, como ha ocurrido con el caso de Bondi Beach.
En este escenario, el ciclo se retroalimenta: una web automática publica un contenido dudoso, la IA lo recoge y lo repite con tono de seguridad, y luego otros usuarios citan lo que dice el chatbot para reforzar el bulo original. Así, un nombre inventado como Edward Crabtree puede llegar a competir con el nombre real, Ahmed al Ahmed, en el relato público sobre el tiroteo.
Después de todo lo ocurrido con Grok y el tiroteo de Bondi Beach, la pregunta lógica es qué puedes hacer tú cuando consultes una noticia generada por IA en mitad de un suceso grave. Aunque no tengas acceso directo a las fuentes internas de la IA, sí puedes aplicar varios criterios sencillos para no quedarte solo con la primera respuesta que veas.
Si lo piensas, el objetivo no es dejar de usar chatbots como Grok, sino saber cómo interpretar lo que te cuentan, sobre todo cuando se trata de tiroteos, atentados u otros hechos sensibles donde la desinformación se mueve muy rápido. La clave está en combinar lo que diga la IA con fuentes independientes y en sospechar de los detalles excesivamente concretos que no aparezcan en otros medios consolidados.
Cuando leas una respuesta de Grok u otra IA sobre un suceso como el de Bondi Beach, puedes seguir una secuencia sencilla de comprobación:
Con estos pasos básicos, vas a poder reducir bastante el impacto de errores como los que ha tenido Grok en el caso de Bondi Beach. No se trata de desconfiar de toda noticia generada por IA, pero sí de asumir que un chatbot puede equivocarse y mezclar historias, igual que ha pasado con Ahmed al Ahmed y el inventado Edward Crabtree.
El fallo de Grok en el tiroteo de Bondi Beach muestra que un chatbot, por potente que sea, puede convertir un suceso real en un relato confuso si se alimenta de noticias generadas por IA y webs dudosas. En este caso, la desinformación ha afectado a algo tan básico como el nombre de la persona que desarmó a un atacante, mezclando a Ahmed al Ahmed con un tal Edward Crabtree e incluso colando referencias a rehenes israelíes, al ejército israelí o al supuesto ciclón Alfred.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.