Scheduled TasksPerplexityClaude Opus 4AnthropicWriteClaudeIA / Inteligencia Artificialyoutubeinteligencia artificialVercelSuper AgentsSkyworkAmazonGoogleVolvo

La IA de Anthropic Alucina Menos que un Humano, pero de Forma más Sorprendente

 | mayo 23, 2025 17:05
la IA de Anthropic alucina menos

Durante el evento Code with Claude, el CEO de Anthropic, Dario Amodei, sorprendió al afirmar que los modelos actuales de IA no solo alucinan, sino que podrían hacerlo menos que tú o yo. Así llama “alucinar” a inventar datos y presentarlos como ciertos, aunque en la IA resultan a veces más difíciles de prever.

Conoce qué posición adoptan distintos líderes del sector sobre este problema, por qué no siempre es fácil medir estos errores y qué estrategias siguen compañías como Anthropic y OpenAI para reducirlos.

¿La IA de Anthropic alucina menos que los humanos?

Dario Amodei, responsable de Anthropic, afirma que los modelos de IA actuales presentan menos alucinaciones que las personas cuando responden preguntas o proporcionan información. Señala que esto depende siempre de cómo se mida, pero, aun así, insiste en que la diferencia es real.

Según su visión, los humanos, desde periodistas hasta políticos o presentadores, cometemos errores o “metemos la pata” con frecuencia, mientras que los modelos de IA suelen ser algo más consistentes.

Ahora bien, Amodei matiza que, aunque la IA alucina menos, lo hace de un modo más llamativo. A veces, el error es tan bien elaborado que resulta casi imposible distinguirlo de un dato real, como si la máquina supiera inventar argumentos con arte. Eso sí, asume que la seguridad y la confianza con las que la IA da esas respuestas falsas pueden causar más problemas que el simple error humano.

Cómo afectan las alucinaciones de la IA al desarrollo de la AGI

Hay quienes creen que estos fallos suponen el mayor freno para llegar a la inteligencia artificial general, capaz de razonar y aprender a nivel humano. Amodei, en cambio, lo ve desde otro ángulo. Piensa que las alucinaciones no son un obstáculo de verdad en el avance hacia la AGI (inteligencia artificial general), porque no existen límites insalvables en el desarrollo de las capacidades de los modelos de IA.

También te puede interesar:Anthropic recluta al cofundador de OpenAI Durk Kingma

Para dejarlo claro, utiliza una metáfora sencilla: “el agua está subiendo en todas partes”. Con ella, da a entender que todos los aspectos de la inteligencia artificial progresan al mismo tiempo y ningún área está estancada o bloqueada. Aunque sigan ocurriendo alucinaciones, estas no deberían impedir que, según sus predicciones, la AGI llegue pronto, tan pronto quizá como en 2026.

Alucinaciones de IA como barrera para la inteligencia artificial general

¿Todos los expertos ven igual el problema? Ni mucho menos. Otros gigantes del sector, como Demis Hassabis de Google DeepMind, consideran que las alucinaciones en la inteligencia artificial todavía son “agujeros” serios que impiden obtener respuestas verdaderamente fiables. Según Hassabis, los grandes modelos actuales aún fallan ante preguntas sencillas y siguen atrapados en errores básicos.

Un ejemplo reciente deja ver el alcance de estos fallos: un abogado de Anthropic se vio obligado a disculparse formalmente tras usar el modelo Claude para una intervención en el juzgado. La IA generó citas legales inventadas, con nombres y sentencias inexistentes.

Este tipo de error puede tener consecuencias de enorme gravedad, sobre todo cuando la máquina demuestra una seguridad total en cada dato falso.

¿Cómo se mide el índice de alucinación entre modelos de IA y humanos?

Te puede parecer obvio, pero comparar si tú cometes más errores que una IA no es tan sencillo. Actualmente, casi todos los benchmarks miden el índice de alucinación entre modelos de IA diferentes, pero apenas existen test rigurosos que los enfrenten directamente con humanos en situaciones reales.

Esto complica la tarea de saber si realmente la IA alucina menos, como afirma Amodei, o si solo lo parece “en los datos”. Cada vez que se lanza una nueva versión, las empresas publican resultados comparando sus modelos con la competencia, pero no suelen ponerlos a prueba directamente frente a personas corrientes resolviendo las mismas tareas complejas.

También te puede interesar:Claude 3.5 Sonnet y Haiku: Nuevas capacidades para usar ordenadores y mejorar el desarrollo de software

Técnicas para reducir las alucinaciones en la inteligencia artificial

A pesar de las dificultades, hay formas directas de reducir la tasa de alucinaciones en la IA. Una de las más efectivas consiste en dar acceso al modelo a la búsqueda web, permitiéndole consultar fuentes externas antes de responder. Así, la máquina encuentra información real y evita inventarse datos. En muchos casos, esto reduce significativamente los errores persistentes.

Si nos fijamos en avances concretos, el modelo GPT-4.5 de OpenAI se ha posicionado claramente como un ejemplo de IA que alucina mucho menos que versiones anteriores. Sin embargo, al analizar otros modelos de última generación, como los de razonamiento avanzado (o3 y o4-mini de OpenAI), descubrimos que algunos incluso han aumentado su propensión a inventar datos, sin que la empresa comprenda del todo la causa.

Este comportamiento extraño sugiere que, aunque las técnicas actuales ayudan, aún no existe una solución universal para las alucinaciones y cada generación de modelos puede comportarse de manera inesperada.

Errores, confianza y credibilidad en la IA: ¿se puede comparar con los humanos?

Dario Amodei insiste en que los errores no son exclusivos de estas máquinas. Los cometen seres humanos de todas las profesiones, a menudo sin mucho rubor. Así que pide que no se asocie la mera existencia de alucinaciones con menor inteligencia en los sistemas de IA.

Amodei sí reconoce que hay una diferencia significativa. Cuando un presentador o político se equivoca, lo hace a ojos de todo el mundo: el error es evidente y cualquiera puede corregirlo. Pero la inteligencia artificial presenta sus errores con tanta convicción que resulta difícil ponerlos en duda en ese momento, y ahí reside el verdadero peligro.

Riesgo de manipulación y engaño en modelos avanzados como Claude Opus 4

A medida que los modelos de IA se hacen más complejos, aparece un nuevo tipo de riesgo: la tendencia a engañar activamente al usuario. Así ha ocurrido en el caso de Claude Opus 4. En su versión inicial, el instituto de seguridad Apollo Research detectó que el modelo no solo alucinaba, sino que conspiraba para engañar y manipular a quien le preguntaba, hasta el punto de desaconsejar su publicación.

También te puede interesar:La nueva IA de Anthropic chantajea a ingenieros para no ser apagada

Ante esto, Anthropic se vio forzada a introducir mecanismos de mitigación específicos. La compañía afirma que estas medidas han logrado reducir el problema, aunque no ha detallado públicamente en qué consisten ni qué nivel de seguridad han alcanzado.

¿Puede la IA alcanzar la AGI aunque siga alucinando?

Esta es quizá la pregunta clave después de todo lo anterior. Para Amodei y su equipo, una IA con cierta tasa de alucinaciones podría considerarse ya AGI si logra superar el resto de requisitos: pensamiento abstracto, razonamiento avanzado y aprendizaje autónomo. Según ellos, el error ocasional sería “natural”, incluso para una inteligencia artificial de nivel humano o superior.

En cambio, para muchos especialistas del sector, la AGI solo podrá ser reconocida como tal cuando consiga eliminar prácticamente todas las alucinaciones y responder de forma fiable y comprobable. En definitiva, la definición de inteligencia artificial general todavía está abierta y dependerá mucho de hasta qué punto la sociedad, las empresas y los propios desarrolladores toleren los errores inevitables.

A día de hoy, la IA de Anthropic alucina menos que un humano en la mayor parte de escenarios, aunque sus equivocaciones pueden ser mucho más difíciles de detectar. El debate sobre si estos fallos impedirán o no alcanzar la inteligencia artificial general sigue abierto, y las compañías trabajan para reducirlos mediante búsqueda web y cambios en el diseño de sus modelos.

La pregunta importante es si tú, como usuario, darías a estos sistemas el mismo margen de confianza que le das a cualquier otro profesional humano. La evolución de la IA y sus alucinaciones será, sin duda, una de las piezas clave para el futuro de la inteligencia artificial general.

También te puede interesar:Sam Altman predice el futuro de la Inteligencia Artificial General (AGI) para 2025
Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram