Un hallazgo del periodista de la BBC, Thomas Germain, revela lo fácil que puede ser engañar a ChatGPT de OpenAI y a las herramientas de IA de Google, como Gemini y los AI Overviews (resúmenes automáticos en la búsqueda). La clave: inventar información, publicarla con apariencia verosímil en un blog y esperar.
En su experimento, Germain escribió en su blog personal un artículo completamente ficticio donde afirmaba ser “el mejor periodista comedor de panchos del mundo”. Lo armó en unos 20 minutos, con un título llamativo (“Los mejores periodistas tecnológicos comiendo panchos”), nombres de periodistas reales y otros inventados, y hasta un supuesto “Campeonato Internacional de Panchos” en Dakota del Sur.

Menos de 24 horas después, tanto Google como ChatGPT empezaron a repetir esas afirmaciones como si fueran hechos. Y lo más delicado: llegaron a citar el propio post como fuente fiable, sin advertir que era la única “evidencia” disponible ni señalar la falta de corroboración independiente.
Este mecanismo se entiende mejor si se mira por dentro, sin tecnicismos sueltos. Los grandes modelos de lenguaje (IA entrenada con enormes textos) funcionan como una memoria masiva con patrones. Pero cuando no tienen suficiente información interna sobre una pregunta, suelen activar búsquedas en internet y mezclar esos resultados con lo que “saben”.
Ahí aparece el engranaje vulnerable: si el sistema sale a buscar, puede terminar tomando como “pieza clave” un contenido nuevo, bien escrito y con pinta de enciclopedia, aunque sea un montaje.
La analogía doméstica es simple. Es como un vecino que cocina muy bien con lo que ya tiene en la alacena. Pero si le falta un ingrediente, sale corriendo al almacén del barrio y compra lo primero que ve en la góndola… solo porque está bien etiquetado. El problema no es la receta: es la compra apurada sin revisar el origen.
También te puede interesar:Alphabet dispara su valor en bolsa tras el empuje de Gemini y el inesperado guiño de BuffettEn IA eso se parece a la recuperación de información (buscar afuera para responder). No es “malo” por sí mismo. Es una oportunidad para ampliar respuestas. Pero también es un interruptor que, si se acciona sin controles fuertes, deja pasar contenido no contrastado.
Según Germain, algunos sistemas repitieron su historia sin marcar que provenía de un único blog. Ese detalle importa porque, en periodismo y en ciencia, una sola fuente rara vez alcanza para convertir una afirmación en hecho.
Un portavoz de Google, citado por Germain, sostuvo que la IA que aparece en la parte superior de la búsqueda usa sistemas de clasificación para mantener los resultados “99% libres de spam”. Por su parte, OpenAI afirma que adopta medidas para interrumpir y exponer intentos de usuarios que buscan influir maliciosamente en sus herramientas. Ambas compañías reconocen que sus sistemas pueden cometer errores.
En las pruebas, no todas las IAs reaccionaron igual. Germain destaca que modelos de Anthropic fueron más reticentes y detectaron que podía tratarse de una broma. Esa diferencia sugiere que hay margen técnico para diseñar filtros más desconfiados cuando el “cableado” depende de fuentes externas recientes.
El caso es gracioso por los panchos, pero la puerta que muestra no lo es. Si alguien puede inyectar desinformación con poco esfuerzo, el impacto potencial se vuelve serio en salud, economía, política o recomendaciones de seguridad crítica.
Por eso, dos hábitos simples vuelven a ser centrales:
También te puede interesar:“Mejor Empezar de Cero”: Google Avisa que Retocar Contenido de IA, no Evita el Castigo en su BuscadorLa IA puede ser una gran asistente. Pero, como en cualquier casa, si el interruptor de la confianza se queda siempre prendido, tarde o temprano se quema un fusible.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.