Alexa+Lemon SliceLectureOpenAIAnthropicMetayoutubeChatGPTXiaomiMiMo-V2-FlashManus Design ViewClair Obscur: Expedition 33Agentes IAFirefoxRay3 Modify

Nueva Demanda de John Carreyrou y Otros Autores Contra Seis Grandes Empresas de IA

 | diciembre 24, 2025 04:26

Cuando grandes empresas de inteligencia artificial están “entrenando” sus modelos, es fácil imaginar solo código y datos anónimos. Pero, en realidad, detrás hay nombres, obras y derechos muy concretos. Ahora, un grupo de escritores conocidos, entre ellos John Carreyrou, se ha cansado y ha llevado el asunto a los tribunales por lo que llaman uso de libros robados para ganar miles de millones.

En este nuevo frente legal se mezclan tres ingredientes potentes: copyright, modelos de lenguaje (LLM) y acuerdos millonarios que muchos autores consideran “baratos” para las tecnológicas. Si te interesa cómo la IA afecta a los creadores o simplemente quieres entender qué está pasando con estas demandas, aquí vas a poder seguir el hilo paso a paso.

Demanda contra seis gigantes de la IA por entrenar modelos con libros pirateados

La nueva demanda colectiva va dirigida directamente contra seis grandes compañías de inteligencia artificial: Anthropic, Google, OpenAI, Meta, xAI y Perplexity. Los escritores que firman la denuncia sostienen que estas empresas han entrenado sus modelos de lenguaje con copias pirateadas de sus libros, sin permiso y sin compensación justa.

El núcleo del problema es sencillo de entender: los modelos LLM necesitan enormes cantidades de texto para aprender. Los autores alegan que parte de ese material no procede de licencias legales ni de acuerdos transparentes, sino de bases de datos cargadas con libros copiados sin autorización. Para ellos, esto no es un simple detalle técnico, sino una infracción clara de derechos de autor.

Por qué John Carreyrou y otros autores se han plantado frente a la IA

Entre los demandantes destaca John Carreyrou, periodista que destapó el escándalo de Theranos y autor del libro “Bad Blood”. Su presencia no solo da visibilidad pública, también refuerza la idea de que hay escritores con una trayectoria sólida que sienten que sus obras se han usado como “combustible” para modelos de IA sin ningún control.

Estos autores no discuten que la IA pueda aportar cosas útiles, pero sí se rebelan contra la idea de que sus libros, escritos a lo largo de años, entren en datasets gigantes como si fueran material gratis. Según explican, las compañías de IA están montando servicios web y productos comerciales que generan miles de millones en ingresos gracias, en parte, a ese contenido literario no autorizado.

También te puede interesar:El Próximo Modelo de Anthropic podría anunciarse en las próximas semanas

Antecedentes: la primera demanda contra Anthropic por libros pirateados

Para entender la nueva demanda, conviene mirar lo que ya pasó con Anthropic hace un tiempo. En ese caso anterior, un grupo de escritores presentó una acción colectiva acusando a la empresa de entrenar sus modelos con libros pirateados, en condiciones muy parecidas a las que ahora se denuncian contra las seis compañías.

Por qué John Carreyrou y otros autores se han plantado frente a la IA

Aquel proceso se centró en si el uso de esas copias era o no legal. La discusión no solo afectaba a Anthropic, también marcaba un precedente para cualquier empresa que entrene modelos de lenguaje con grandes colecciones de textos extraídos de la red o de repositorios de terceros.

Decisión del juez: entrenar con libros robados frente al acto de piratear

El punto más delicado de ese caso previo fue la decisión judicial. El juez concluyó que entrenar modelos de IA con copias pirateadas de libros podía considerarse legal dentro del marco actual, pero dejó muy claro que el acto de piratear los libros seguía siendo ilegal.

Esta diferencia crea una situación curiosa: el uso técnico de los datos en el entrenamiento se acepta, mientras que la obtención de esos mismos datos, si viene de piratería, se considera un delito. Muchos autores ven en esta distinción una puerta abierta para que las empresas usen contenido “contaminado”, amparándose en que el proceso posterior de entrenamiento se ve como permitido.

Detalles del acuerdo de 1.500 millones de dólares con Anthropic

Tras ese primer caso, Anthropic llegó a un acuerdo económico que llamó mucho la atención: 1.500 millones de dólares. A primera vista parece una cifra impresionante y, de hecho, se presentó como una solución global para cerrar la disputa con la mayoría de autores implicados.

Sin embargo, cuando se hace el cálculo por persona, la cosa cambia. Los escritores elegibles para ese acuerdo pueden recibir alrededor de 3.000 dólares cada uno. Para algunos, esa cantidad resulta razonable como compensación rápida. Para otros, está muy lejos del valor real que sus obras aportan al entrenamiento de sistemas de IA que mueven cantidades enormes de dinero.

También te puede interesar:Anthropic lanza un plan de Claude para colegios y universidades

Por qué muchos escritores consideran insuficiente el pago individual

Una parte importante de la comunidad de autores expresó su descontento con ese arreglo. Argumentan que los 3.000 dólares que recibiría cada uno ni se acercan a la magnitud del daño, si se tiene en cuenta que sus libros se habrían usado para construir modelos que luego se comercializan a gran escala.

Desde su punto de vista, el acuerdo con Anthropic no pone realmente contra las cuerdas a las tecnológicas ni las responsabiliza del uso sistemático de libros robados para ganar miles de millones. Para ellos, más que una reparación, parece una manera de “pasar página” sin tocar el fondo del problema.

Críticas al acuerdo: un trato que “sirve a las empresas de IA, no a los creadores”

Los nuevos demandantes retoman precisamente esta crítica. En su escrito, afirman que el acuerdo cerrado con Anthropic “parece servir a las empresas de IA, no a los creadores”. Con esta frase señalan que, al fijar pagos modestos por autor, se ofrece a las compañías una salida barata para un conflicto potencialmente enorme.

Los escritores no solo se quejan del dinero. También apuntan a la falta de cambios estructurales. Según ellos, estos acuerdos no obligan a revisar en profundidad cómo se recogen y se usan los datos de entrenamiento, ni garantizan que los modelos futuros se alimenten solo de material con licencia correcta.

“Miles y miles de reclamaciones de alto valor” cerradas “a precios de saldo”

Uno de los mensajes más duros de la nueva demanda es la crítica a la forma en la que se están cerrando las reclamaciones. Los autores sostienen que las empresas buscan extinguir “miles y miles de reclamaciones de alto valor” pagándolas “a precios de saldo”. Es decir, muchos derechos presuntamente vulnerados se cierran de golpe por cantidades que consideran ridículas en comparación con el negocio generado.

Con todo, la clave para ellos no es solo el pasado, sino el futuro del sector editorial y creativo. Temen que, si se consolida este modelo de acuerdos baratos, cualquier obra publicada pueda acabar metida en un dataset de entrenamiento sin un control real, y que la respuesta sea siempre la misma: una compensación mínima, muy lejos del verdadero coste de la infracción.

Coste real de la infracción masiva de copyright en modelos de lenguaje

La demanda insiste en que estos acuerdos de bajo coste ocultan, en la práctica, lo que los autores consideran el precio real de la infracción masiva y dolosa. Según su visión, si las compañías de IA tuvieran que pagar el valor completo por cada uso no autorizado, el impacto económico sería enorme y cambiaría la forma en que diseñan sus sistemas.

En cualquier caso, la preocupación va más allá del dinero. Los escritores temen que sus obras queden diluidas en modelos de lenguaje que responden a millones de usuarios sin que quede rastro de su autoría. Mientras las empresas presumen de asistentes cada vez más “listos”, quienes escribieron los textos originales sienten que se les ha dejado fuera de la ecuación.

A medida que esta nueva demanda contra Anthropic, Google, OpenAI, Meta, xAI y Perplexity avance, vas a poder ver hasta qué punto los tribunales aceptan que entrenar con libros robados para ganar miles de millones es compatible o no con el copyright actual. Por ahora, el mensaje de los autores es claro: no quieren acuerdos de saldo, reclaman que se reconozca el valor de sus obras dentro del corazón mismo de la inteligencia artificial.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram