Delphi-2MGensparkAnthropicAmazonGemini 2.5Joanna BrysonTech Prosperity Dealcopilotapple intelligenceGoogle JulesCareer CoachyoutubeOpenAIMalTerminalAgentes IA

Anthropic, Creadora de Claude, Desembolsa 1.500 millones tras Ser acusada de Piratería Masiva con su IA

 | septiembre 22, 2025 23:25

1.500 millones de dólares y un tirón de orejas histórico para la IA generativa: Anthropic, creadora de Claude, ha aceptado pagar a los autores cuyos libros usó sin permiso para entrenar su modelo. Importa porque puede marcar cómo se paga, y cómo se entrena, la IA generativa de ahora en adelante.

El acuerdo llega tras una demanda colectiva impulsada por tres autores en el Distrito Norte de California. Allí, en junio, un juez sostuvo que entrenar una IA generativa con obras con copyright podría encajar en el “uso justo”.

Acuerdo Histórico de Anthropic: Pagarán hasta 1.500 Millones de Dólares a Autores por Entrenar su IA

Una persona no puede leer millones de libros ni generar contenidos derivados sin descanso. Una IA generativa sí, y eso concentra beneficios en pocas empresas. Por eso, varios colectivos hablan de “extractivismo cognitivo”: se extrae valor del acervo común para comercializarlo. El Consejo de Escritores Europeo, por ejemplo, cree que no hay mucho que celebrar y los autores siguen sin poder impedir estos usos.

Entonces, ¿por qué paga Anthropic? Porque el delito no fue entrenar, sino descargar de sitios ilegales cerca de 500.000 libros. Después de las primeras alertas, la empresa empezó a comprar y escanear obras, algo que el juez consideró lícito.

Cómo afecta el “fair use” al entrenamiento de IA generativa con libros

El fallo de California sienta un precedente incómodo: si el material está bien obtenido, el entrenamiento de IA generativa puede ampararse en el “uso justo”. La especialista Bea Busaniche lo resume así: “En EE. UU., el ‘uso justo’ opera como límite, siempre que el material no se haya obtenido de forma ilícita.” Ese matiz legal separa la multa de la puerta abierta a seguir entrenando con libros legales.

La cifra récord de 1.500 millones de dólares nace de 500.000 libros a 3.000 por obra. Si encuentras tu nombre en el listado que publicará la compañía, vas a poder reclamar ese pago. Para muchos creadores es poco: hablamos de un uso potencialmente indefinido, con derivados que compiten hoy y mañana con el trabajo original.

También te puede interesar:El Próximo Modelo de Anthropic podría anunciarse en las próximas semanas
anthropic demanda libros

Las consecuencias son prácticas. Por un lado, el acuerdo no prohíbe que las obras sigan circulando dentro de pipelines empresariales. El acuerdo todavía necesita la aprobación final del juez, y mientras tanto, la tecnología se integra a gran escala. Microsoft planea usar parte de la IA de Anthropic en Microsoft Office 365, lo que multiplica el alcance de modelos entrenados con ese corpus.

Santiago Caruso, ilustrador y miembro de Arte es Ética, ve corto el pago por autor frente al uso sine die y a la competencia de derivados artificiales. Señala que los modelos ya pueden replicar fragmentos o ideas muy singulares, con impacto real en encargos futuros. Puedes seguir el posicionamiento del colectivo en Arte es Ética. No todos coinciden en la vía del acuerdo.

Naida Jazmín Ochoa, coordinadora del mismo colectivo, cree que hubiera sido mejor llegar a sentencia, porque un fallo judicial podría haber tensado más a la empresa. Sostiene que los 3.000 dólares no compensan el daño causado ni el que vendrá, ya que las obras pueden seguir distribuyéndose, licenciarse y venderse entre compañías.

Qué significa el pago de 1.500 millones para autores y empresas

Los datos proceden de la demanda colectiva y del documento del acuerdo presentado en el tribunal, y han sido verificados con el cálculo por obra citado en la resolución.

Sabemos también que, en un caso contra Meta, un juez estadounidense desestimó la demanda porque no se probó pérdida de empleo derivada del entrenamiento. El listón probatorio, por tanto, no es uniforme y cambia por jurisdicción y por hechos.

Hay otro dato que conviene mirar: en la misma semana del acuerdo surgieron al menos dos nuevas demandas contra compañías del sector por usos indebidos en entrenamientos de IA generativa. Es una señal de que el “precio por entrenar” se está fijando en público, caso a caso. Y de que los litigios serán parte del coste operativo de los grandes modelos.

También te puede interesar:Anthropic lanza un plan de Claude para colegios y universidades

¿Qué debes vigilar ahora? Tres pistas rápidas ayudan:

  • Revisa si se publica el listado de autores y cómo se reclama el pago.
  • Observa si el juez aprueba el acuerdo y en qué términos.
  • Mira integraciones corporativas masivas, como suites ofimáticas, que escalen estos modelos.

Por último, no pierdas el ángulo económico. Este proceso habilita que unas pocas empresas comercialicen conocimiento humano a gran escala, mientras los autores individuales ven diluido su retorno. Para unos, eso es la cara dura del mercado; para otros, el nombre ya está puesto: “extractivismo cognitivo”. El detalle que lo condiciona todo sigue siendo el origen legal de los datos de entrenamiento.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram