1.500 millones de dólares y un tirón de orejas histórico para la IA generativa: Anthropic, creadora de Claude, ha aceptado pagar a los autores cuyos libros usó sin permiso para entrenar su modelo. Importa porque puede marcar cómo se paga, y cómo se entrena, la IA generativa de ahora en adelante.
El acuerdo llega tras una demanda colectiva impulsada por tres autores en el Distrito Norte de California. Allí, en junio, un juez sostuvo que entrenar una IA generativa con obras con copyright podría encajar en el “uso justo”.
Una persona no puede leer millones de libros ni generar contenidos derivados sin descanso. Una IA generativa sí, y eso concentra beneficios en pocas empresas. Por eso, varios colectivos hablan de “extractivismo cognitivo”: se extrae valor del acervo común para comercializarlo. El Consejo de Escritores Europeo, por ejemplo, cree que no hay mucho que celebrar y los autores siguen sin poder impedir estos usos.
Entonces, ¿por qué paga Anthropic? Porque el delito no fue entrenar, sino descargar de sitios ilegales cerca de 500.000 libros. Después de las primeras alertas, la empresa empezó a comprar y escanear obras, algo que el juez consideró lícito.
El fallo de California sienta un precedente incómodo: si el material está bien obtenido, el entrenamiento de IA generativa puede ampararse en el “uso justo”. La especialista Bea Busaniche lo resume así: “En EE. UU., el ‘uso justo’ opera como límite, siempre que el material no se haya obtenido de forma ilícita.” Ese matiz legal separa la multa de la puerta abierta a seguir entrenando con libros legales.
La cifra récord de 1.500 millones de dólares nace de 500.000 libros a 3.000 por obra. Si encuentras tu nombre en el listado que publicará la compañía, vas a poder reclamar ese pago. Para muchos creadores es poco: hablamos de un uso potencialmente indefinido, con derivados que compiten hoy y mañana con el trabajo original.
También te puede interesar:El Próximo Modelo de Anthropic podría anunciarse en las próximas semanasLas consecuencias son prácticas. Por un lado, el acuerdo no prohíbe que las obras sigan circulando dentro de pipelines empresariales. El acuerdo todavía necesita la aprobación final del juez, y mientras tanto, la tecnología se integra a gran escala. Microsoft planea usar parte de la IA de Anthropic en Microsoft Office 365, lo que multiplica el alcance de modelos entrenados con ese corpus.
Santiago Caruso, ilustrador y miembro de Arte es Ética, ve corto el pago por autor frente al uso sine die y a la competencia de derivados artificiales. Señala que los modelos ya pueden replicar fragmentos o ideas muy singulares, con impacto real en encargos futuros. Puedes seguir el posicionamiento del colectivo en Arte es Ética. No todos coinciden en la vía del acuerdo.
Naida Jazmín Ochoa, coordinadora del mismo colectivo, cree que hubiera sido mejor llegar a sentencia, porque un fallo judicial podría haber tensado más a la empresa. Sostiene que los 3.000 dólares no compensan el daño causado ni el que vendrá, ya que las obras pueden seguir distribuyéndose, licenciarse y venderse entre compañías.
Los datos proceden de la demanda colectiva y del documento del acuerdo presentado en el tribunal, y han sido verificados con el cálculo por obra citado en la resolución.
Sabemos también que, en un caso contra Meta, un juez estadounidense desestimó la demanda porque no se probó pérdida de empleo derivada del entrenamiento. El listón probatorio, por tanto, no es uniforme y cambia por jurisdicción y por hechos.
Hay otro dato que conviene mirar: en la misma semana del acuerdo surgieron al menos dos nuevas demandas contra compañías del sector por usos indebidos en entrenamientos de IA generativa. Es una señal de que el “precio por entrenar” se está fijando en público, caso a caso. Y de que los litigios serán parte del coste operativo de los grandes modelos.
También te puede interesar:Anthropic lanza un plan de Claude para colegios y universidades¿Qué debes vigilar ahora? Tres pistas rápidas ayudan:
Por último, no pierdas el ángulo económico. Este proceso habilita que unas pocas empresas comercialicen conocimiento humano a gran escala, mientras los autores individuales ven diluido su retorno. Para unos, eso es la cara dura del mercado; para otros, el nombre ya está puesto: “extractivismo cognitivo”. El detalle que lo condiciona todo sigue siendo el origen legal de los datos de entrenamiento.
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.