Cuando una empresa de inteligencia artificial respaldada por Amazon se juega un juicio de miles de millones por derechos de autor, merece la pena mirar de cerca qué ha pasado. Hoy te contamos qué hay detrás del acuerdo de Anthropic con un grupo de autores de Estados Unidos, por qué evita un proceso arriesgado y qué pistas deja para el futuro de la IA generativa.
El acuerdo de Anthropic es un pacto extrajudicial que resuelve una demanda colectiva presentada por escritores estadounidenses que acusaban a la compañía de infringir derechos de autor. Con todo, no se han publicado todavía los términos concretos, así que las cifras finales y las obligaciones exactas siguen en reserva. El pacto evita el juicio que debía fijar cuánto iba a pagar la empresa por el supuesto entrenamiento con obras pirateadas.
La acusación central decía que Anthropic entrenó sus modelos de IA, Claude, usando un conjunto de datos de código abierto cargado de material pirata. La compañía ha preferido cerrar el frente judicial con un acuerdo de Anthropic antes de llegar a la vista oral, y eso le ahorra una exposición económica enorme y meses de incertidumbre pública.
La demanda original se presentó el año pasado y la firmaron los escritores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson. Su tesis era clara: Anthropic habría realizado una “descarga tipo Napster de millones de obras” para formar a Claude. El acuerdo de Anthropic no confirma esa narrativa, solo cierra el litigio para este grupo de demandantes.
Te interesa porque marca cómo encaja la industria la tensión entre entrenar modelos y respetar el copyright. Si escribes, editas o compartes contenido, vas a poder seguir el impacto real cuando se publiquen los detalles del acuerdo de Anthropic en las próximas semanas.
El foco estuvo en un dataset abierto supuesto, donde se habrían mezclado obras con derechos junto a materiales libres. La clave no es solo el acceso al conjunto, sino el contenido y el origen de cada archivo. Con todo, el acuerdo de Anthropic evita que un jurado determine si hubo o no infracción al usar ese dataset concreto.
También te puede interesar:Claude AI se Integra en Chrome y Promete Cambiar la Manera en que Buscamos en InternetLa discusión técnica sigue: ¿vale entrenar con libros y textos comprados legalmente? ¿Qué pasa cuando el conjunto incluye copias pirateadas? El caso empuja a todas las empresas de IA a revisar sus prácticas y a documentar mejor sus fuentes.
Según un escrito judicial, la compañía alcanzó un “acuerdo de clase propuesto” que, si se valida, se espera que quede finalizado el 3 de septiembre. Los términos no son públicos, y Anthropic ha rehusado comentar. Lo importante es que el acuerdo de Anthropic frena un juicio previsto para diciembre.
Ese juicio podría haber terminado con sanciones de miles de millones, e incluso “más de un billón” de dólares, según Wired. Con el acuerdo de Anthropic, la startup evita el escenario más duro, gana tiempo y reduce el riesgo reputacional, algo sensible para una empresa respaldada por Amazon.
Año pasado | Se presenta la demanda por derechos de autor de Bartz, Graeber y Johnson. |
Junio | El juez William Alsup señala que entrenar con libros comprados legalmente puede ser uso legítimo, pero deja abierta la vía a más litigios. |
Julio | Alsup permite avanzar la demanda colectiva y recoge la acusación de “descarga tipo Napster de millones de obras”. |
Diciembre (previsto) | Fecha estimada del juicio que el acuerdo de Anthropic ha evitado. |
3 de septiembre (esperado) | Finalización oficial del acuerdo, con detalles por anunciar. |
Si creas contenido, vas a poder ver en este caso una guía de riesgos y prácticas. El acuerdo de Anthropic indica que los litigios por entrenamiento de IA con obras protegidas no son teóricos, y que las cifras pueden ser gigantes. La mención judicial al uso legítimo con libros comprados legalmente sugiere que no todo entrenamiento es igual.
Si trabajas con datos para IA, necesitas trazabilidad, licencias claras y procesos de exclusión. Con todo, la publicación de los términos del acuerdo de Anthropic podría marcar nuevos estándares de compensación o de control de datasets para el sector.
En junio, el juez Alsup indicó que entrenar con libros adquiridos legalmente puede encajar como uso legítimo. El propio juez dejó la puerta abierta a más pleitos, lo que subraya que cada caso depende de los detalles del dataset, del propósito y de los efectos en el mercado.
También te puede interesar:El Próximo Modelo de Anthropic podría anunciarse en las próximas semanasLa lectura práctica es sencilla: el acuerdo de Anthropic no zanja el debate general, pero sí evita un fallo potencialmente perjudicial. Vas a poder ver más demandas similares, y más negociaciones, a medida que otras empresas ajusten sus políticas de datos.
El abogado de los autores, Justin Nelson, ha hablado de un acuerdo “histórico” que beneficiará a todos los miembros de la demanda colectiva. Los detalles se harán públicos en las próximas semanas, por lo que conviene esperar al documento final antes de sacar conclusiones firmes. Mientras tanto, Anthropic no comenta el contenido del pacto.
El caso muestra que el acuerdo de Anthropic no solo apaga un incendio legal, también define el tono de la conversación sobre entrenamiento de IA y derechos de autor. Con términos todavía no públicos y más pleitos en el horizonte, vas a poder seguir viendo cómo la industria ajusta prácticas, licencias y datasets para que Claude y otros modelos crezcan sin que vuelva a estallar una demanda colectiva similar.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.