IA (Inteligencia Artificial)OpenAIAgentes IARokuClaudeTikTokSeedream 4.0Geoffrey HintonIA generativaMetaBlack Forest LabsNebius GroupNewsGuardOracleIA / Inteligencia Artificial

Estudio Demuestra que 1 de Cada 3 Respuestas de Chatbots de IA es Mentira y Cuáles Engañan Más

 | septiembre 12, 2025 01:22

NewsGuard detecta en 2025 que una de cada tres respuestas de los chatbots de IA contiene datos erróneos, un golpe directo a cómo buscas, trabajas y te informas en el móvil. El cambio clave es reciente y tiene truco: muchos modelos ya no rechazan preguntas dudosas, responden igual.

El informe, realizado en Estados Unidos por NewsGuard, pone a prueba los diez chatbots de IA más usados de OpenAI, Meta, Google, Anthropic, Microsoft, Inflection AI, Mistral y Perplexity AI. Los investigadores lanzaron diez afirmaciones falsas con tres estilos de mensaje: neutro, uno que daba por cierta la falsedad y otro malicioso. Analizaron si el sistema repetía la mentira o evitaba refutarla al negarse.

Una de cada tres respuestas de los chatbots de IA contiene datos erróneos

Los resultados varían mucho entre chatbots de IA. Pi, de Inflection AI, encabeza los errores con un 57% de respuestas con afirmaciones falsas. Perplexity AI llega al 46%. En el lado opuesto, Claude, de Anthropic, anota un 10% y Gemini, de Google, un 17%. La diferencia revela cuánta verificación efectiva hay, o no, antes de responder.

La evolución más brusca es la de Perplexity AI: pasó de 0% de errores en 2024 a 46% en 2025. Mistral, por su parte, se mantiene estable, en torno al 37% en 2024 y 2025. Según el diario Les Echos, Mistral repite afirmaciones falsas sobre Francia y sus mandatarios en el 58% de sus respuestas en inglés y el 31% en francés, un indicio de sesgos por idioma.

NewsGuard también vio que algunos chatbots de IA citan narrativas propagandísticas extranjeras, incluidas las generadas por Storm-1516 o el ecosistema de Pravda. En un caso concreto, varios sistemas —Mistral, Claude, Pi de Inflection, Copilot, Meta y Perplexity— dieron por cierta una afirmación inventada sobre el presidente del Parlamento moldavo, Igor Grosu. “Los sistemas de IA siguen fallando en las mismas áreas del año pasado”, recoge el informe de 2025.

Cómo los errores de chatbots de IA afectan a tu trabajo en 2025 (y qué hacer)

Las tecnológicas prometen mejoras. OpenAI insiste en que su nuevo ChatGPT-5 es “a prueba de alucinaciones”, lo que implicaría no inventar datos cuando no existan. Google asegura que Gemini 2.5 puede “razonar sus pensamientos antes de responder”. NewsGuard concluye que los fallos persisten y se parecen a los de hace un año.

Si dependes de chatbots de IA para tareas sensibles, conviene bajar una marcha. Evita delegar verificaciones críticas y pide siempre contexto. Tres gestos rápidos marcan diferencia:

  • Pide fuentes concretas y fechas en cada respuesta.
  • Cambia de idioma o modelo si detectas ambigüedades.
  • Contrasta con un servicio web de búsqueda antes de decidir.

Entre los sistemas con menos errores están Claude (10%) y Gemini (17%), útiles cuando el riesgo de equivocarte tiene coste real. Vigila señales: si el bot no cita fuentes, si afirma con seguridad datos no comprobables o si evita acotar lugares y fechas, toca desconfiar y validar por tu cuenta.

Cómo Los Chatbots Pueden Ser Manipulados Mediante Halagos y Presión Social

En el extremo opuesto, estos chatbots de IA concentraron más respuestas con falsedades en las pruebas de 2025:

  • Pi (Inflection AI): 57% de respuestas con errores.
  • Perplexity AI: 46% tras crecer desde 0% en 2024.
  • ChatGPT (OpenAI) y Llama (Meta): alrededor del 40%.

Copilot (Microsoft) y Le Chat (Mistral) rondaron un 35%. Esta horquilla evidencia que los filtros de seguridad y verificación internos no son equivalentes entre clientes en línea y versiones de escritorio, y que el estilo del prompt influye: cuando el mensaje asumía la veracidad de la afirmación, los errores aumentaban.

Si bien los chatbots de IA aceleran tu día a día, pero hoy uno de cada tres puede fallar, y algunos más que otros. Úsalos para redactar, resumir y explorar, y reserva la validación factual a fuentes sólidas. Si el modelo aporta fechas, enlaza a documentos originales y reconoce límites, vas a poder confiar un poco más en su respuesta.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram