Freepikapple intelligenceagente de IAClaudeAnthropicChatGPTAgentes IAAlphabet (Google)ChinaQuick CutAdobe FireflyAlexa+CUDISSiriAsk Gemini

La BBC Pone Contra las Cuerdas a ChatGPT y a Google al Demostrar lo Fácil Que Es Manipularlos

 | febrero 26, 2026 08:28

Un hallazgo del periodista de la BBC, Thomas Germain, revela lo fácil que puede ser engañar a ChatGPT de OpenAI y a las herramientas de IA de Google, como Gemini y los AI Overviews (resúmenes automáticos en la búsqueda). La clave: inventar información, publicarla con apariencia verosímil en un blog y esperar.

En su experimento, Germain escribió en su blog personal un artículo completamente ficticio donde afirmaba ser “el mejor periodista comedor de panchos del mundo”. Lo armó en unos 20 minutos, con un título llamativo (“Los mejores periodistas tecnológicos comiendo panchos”), nombres de periodistas reales y otros inventados, y hasta un supuestoCampeonato Internacional de Panchos” en Dakota del Sur.

Un Simple Blog Falso es Suficiente Para Engañar a ChatGPT y a la IA de Google en Pocas Horas

Menos de 24 horas después, tanto Google como ChatGPT empezaron a repetir esas afirmaciones como si fueran hechos. Y lo más delicado: llegaron a citar el propio post como fuente fiable, sin advertir que era la única “evidencia” disponible ni señalar la falta de corroboración independiente.

Este mecanismo se entiende mejor si se mira por dentro, sin tecnicismos sueltos. Los grandes modelos de lenguaje (IA entrenada con enormes textos) funcionan como una memoria masiva con patrones. Pero cuando no tienen suficiente información interna sobre una pregunta, suelen activar búsquedas en internet y mezclar esos resultados con lo que “saben”.

Ahí aparece el engranaje vulnerable: si el sistema sale a buscar, puede terminar tomando como “pieza clave” un contenido nuevo, bien escrito y con pinta de enciclopedia, aunque sea un montaje.

La analogía doméstica es simple. Es como un vecino que cocina muy bien con lo que ya tiene en la alacena. Pero si le falta un ingrediente, sale corriendo al almacén del barrio y compra lo primero que ve en la góndola… solo porque está bien etiquetado. El problema no es la receta: es la compra apurada sin revisar el origen.

También te puede interesar:Alphabet dispara su valor en bolsa tras el empuje de Gemini y el inesperado guiño de Buffett

En IA eso se parece a la recuperación de información (buscar afuera para responder). No es “malo” por sí mismo. Es una oportunidad para ampliar respuestas. Pero también es un interruptor que, si se acciona sin controles fuertes, deja pasar contenido no contrastado.

El punto ciego: cuando una sola fuente alcanza

Según Germain, algunos sistemas repitieron su historia sin marcar que provenía de un único blog. Ese detalle importa porque, en periodismo y en ciencia, una sola fuente rara vez alcanza para convertir una afirmación en hecho.

Un portavoz de Google, citado por Germain, sostuvo que la IA que aparece en la parte superior de la búsqueda usa sistemas de clasificación para mantener los resultados “99% libres de spam”. Por su parte, OpenAI afirma que adopta medidas para interrumpir y exponer intentos de usuarios que buscan influir maliciosamente en sus herramientas. Ambas compañías reconocen que sus sistemas pueden cometer errores.

En las pruebas, no todas las IAs reaccionaron igual. Germain destaca que modelos de Anthropic fueron más reticentes y detectaron que podía tratarse de una broma. Esa diferencia sugiere que hay margen técnico para diseñar filtros más desconfiados cuando el “cableado” depende de fuentes externas recientes.

Qué cambia para el usuario (y cómo reducir el riesgo)

El caso es gracioso por los panchos, pero la puerta que muestra no lo es. Si alguien puede inyectar desinformación con poco esfuerzo, el impacto potencial se vuelve serio en salud, economía, política o recomendaciones de seguridad crítica.

Por eso, dos hábitos simples vuelven a ser centrales:

También te puede interesar:“Mejor Empezar de Cero”: Google Avisa que Retocar Contenido de IA, no Evita el Castigo en su Buscador
  • Verificar las fuentes citadas: abrirlas y chequear si hay más de una confirmación independiente.
  • Buscar una segunda respuesta: contrastar con otros servicios, medios confiables o sitios especializados antes de tomarlo como cierto.

La IA puede ser una gran asistente. Pero, como en cualquier casa, si el interruptor de la confianza se queda siempre prendido, tarde o temprano se quema un fusible.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram