Anthropic, una de las compañías más prominentes en el desarrollo de inteligencia artificial, ha reconocido públicamente que su modelo Claude AI cometió un “error embarazoso e involuntario” en un documento legal.
El fallo ocurrió durante su defensa frente a una demanda presentada por varios gigantes de la industria musical, incluyendo Universal Music Group, ABKCO y Concord, quienes acusan a la empresa de haber entrenado su modelo con letras protegidas por derechos de autor sin la debida autorización.
La polémica surgió a raíz de una presentación legal hecha el 30 de abril por la científica de datos de Anthropic, Olivia Chen. En dicho documento, se incluyó una cita bibliográfica supuestamente verificada, pero que contenía errores graves: el título del artículo, los autores y algunos detalles de la fuente eran incorrectos, lo que llevó a la representación legal de las editoras musicales a calificarla de una “fabricación completa”.
Durante una audiencia, los abogados denunciaron que los datos citados parecían haber sido “alucinados” por el propio sistema de IA de Anthropic, lo que puso en entredicho la fiabilidad del documento.
Puedes consultar el documento legal presentado aquí.
En una declaración oficial entregada el jueves, la abogada defensora Ivana Dukanovic explicó que, aunque la fuente en cuestión sí existe y el enlace era correcto, la formulación automática de la cita por parte de Claude fue errónea.
También te puede interesar:Anthropic recluta al cofundador de OpenAI Durk KingmaA pesar de que el equipo legal realizó una revisión manual y corrigió datos como el volumen y el número de página, los errores en el título y en los autores pasaron desapercibidos.
“Claude proporcionó el título correcto de la publicación, el año y el enlace, pero insertó un título incorrecto y autores que no correspondían. No fue una invención deliberada, sino un fallo de formato,” dijo Dukanovic. La firma calificó el incidente como “una equivocación lamentable” y pidió disculpas por la confusión.
Este caso no es un incidente aislado. El mal uso de herramientas de inteligencia artificial en el ámbito legal ha generado una serie de problemas en los últimos meses. La semana pasada, un juez en California reprendió a dos bufetes de abogados por entregar un informe complementario que contenía material completamente falso, generado por IA, sin informar previamente al tribunal.
Asimismo, en diciembre pasado, un experto en desinformación admitió que ChatGPT había alucinado citas en una presentación legal que él mismo había redactado.
Casos como estos reflejan un peligro tangible en la automatización de tareas jurídicas, donde la precisión no es negociable.
El incidente plantea una pregunta urgente para el sector legal y tecnológico: ¿están las herramientas de IA realmente listas para asumir tareas tan delicadas como la redacción jurídica? Si bien Anthropic ha asumido su responsabilidad y defendido la integridad general de su proceso, la confianza en los modelos generativos de lenguaje se ve nuevamente afectada.
La creciente adopción de IA en ámbitos profesionales no puede sustituir la supervisión humana rigurosa, especialmente cuando lo que está en juego son decisiones judiciales o derechos legales. Aunque se trate de un “error honesto”, este caso es un recordatorio de que, en el mundo jurídico, la precisión es ley, y delegarla a algoritmos sin filtros suficientes puede tener consecuencias graves.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.