OracleadobecopilotBloc de NotasRAISE ActAgentes IAAlphabet (Google)OpenAIChatGPTAlexa+Lemon SliceLectureAnthropicMetayoutube

Adobe se erigió en ejemplo frente a la IA y ahora la justicia pone el foco en sus datos

 | diciembre 25, 2025 20:13

Adobe lleva años vendiéndose como la gran defensora de los creadores en plena fiebre de la inteligencia artificial, y eso le ha funcionado muy bien en imagen pública. Por eso impacta que, justo ahora que la IA se cuela en cada documento y cada foto, la empresa se vea arrastrada a un juicio que pone en duda ese papel de “campeona” de los derechos de autor.

La historia arranca en el Tribunal Federal del Distrito Norte de California, donde la escritora Elizabeth Lyon ha presentado una demanda colectiva contra Adobe. Lyon acusa a la compañía de haber usado sus libros, y los de muchos otros autores, para entrenar modelos de inteligencia artificial sin pedir permiso ni pagar ninguna licencia. El modelo señalado no es el más famoso de la casa, y ahí está parte del giro.

 Elizabeth Lyon ha presentado una demanda colectiva contra Adobe.

Porque la acusación no se dirige contra Firefly, la IA creativa que genera imágenes y que Adobe enseña en cada campaña. El foco está en SlimLM, una familia de modelos de lenguaje más discretos, pensados para ayudarte a manejar documentos en segundo plano, sobre todo en el móvil. Son esos motores “invisibles” que te resumen textos, te sugieren frases o te ayudan a buscar dentro de un PDF sin que tú notes nada especial.

Según la demanda, SlimLM habría aprendido a hacer todo eso bebiendo de una cadena de grandes conjuntos de datos con libros protegidos por copyright. Lyon sostiene que sus obras acabaron ahí sin permiso y que, igual que ella, podrían estar afectados muchos más autores, que ahora tienen la puerta abierta para sumarse a la acción colectiva. Falta un detalle clave para entenderlo bien: de dónde salen exactamente esos datos.

Adobe afirma que SlimLM se preentrenó con SlimPajama‑627B, un dataset de código abierto publicado por Cerebras en junio de 2023 y muy usado en el mundo de la inteligencia artificial. La demanda responde que SlimPajama no aparece de la nada, sino que deriva de otro conjunto llamado RedPajama, que a su vez incluiría Books3, una gran colección de libros sujetos a derechos de autor.

Esa cadena SlimPajama → RedPajama → Books3 es el corazón legal del caso. Lyon sostiene que, al aprovechar ese material de entrenamiento, Adobe habría incluido libros protegidos en el proceso de aprendizaje de SlimLM sin obtener licencia ni avisar a sus creadores. No es una discusión sobre cómo responde SlimLM al usuario, sino sobre qué “comió” el modelo para aprender.

También te puede interesar:Adobe propone una solución para proteger a los artistas del uso indebido de IA

Esta tensión no aparece de la nada. Los modelos de inteligencia artificial actuales funcionan aprendiendo patrones a partir de volúmenes enormes de datos: texto, imágenes, código y más. En general, cuantos más datos de calidad recibe el modelo, mejor puede ser su rendimiento, aunque no es el único factor ni una garantía mágica. Esa lógica de “cuanto más, mejor” choca de frente con el marco legal del copyright.

El gran punto de fricción está en el origen de esos datos. No basta con que el dataset sea grande y útil para el entrenamiento de la IA; lo que se discute es bajo qué condiciones se recopilan las obras, si hay permiso, si hay licencias, si se compensa a los autores y, sobre todo, si tienen forma real de decidir si quieren entrar o no en ese sistema.

Lo llamativo aquí es que el modelo implicado, SlimLM, no es una IA generativa vistosa pensada para crear textos largos o arte espectacular. Son modelos pequeños, diseñados para tareas concretas de asistencia con documentos, y optimizados para funcionar bien en dispositivos móviles con recursos limitados. Se mueven en segundo plano y no tienen una marca comercial fuerte delante del usuario final.

Eso demuestra que el debate sobre los datos de entrenamiento ya no se limita a las IA más llamativas, como las que generan ilustraciones o relatos completos. La discusión llega también a esos sistemas discretos que viven integrados en el navegador, en el lector de PDF o en una app de notas. Jurídicamente, el problema es el mismo: de dónde salen los datos con los que se entrenó el modelo de inteligencia artificial.

Mientras tanto, Adobe ha centrado su narrativa pública de IA en Firefly. Ha repetido una y otra vez que este sistema creativo se entrena con contenidos con licencia, como Adobe Stock, y con material de dominio público. Incluso ha anunciado programas de compensación económica para los colaboradores que suben imágenes y vídeos a ese banco de contenidos, presentándolo como un pacto justo entre IA y creadores.

La demanda, en cambio, apunta a la cara menos visible de ese ecosistema. SlimLM no sale en los anuncios, no tiene campañas propias y no se vende como un gran producto independiente. Está integrado como capa de asistencia, sin presencia comercial directa. Esa separación entre Firefly, muy publicitado como modelo “ético”, y SlimLM, mucho más silencioso, es clave para entender el posible impacto reputacional del caso.

También te puede interesar:Ahora puedes editar fotos de Adobe Stock con IA antes de Comprarlas

Cómo la demanda colectiva contra Adobe por IA puede cambiar el uso de datasets con copyright

El procedimiento se enmarca en una oleada más amplia de litigios en Estados Unidos contra empresas de inteligencia artificial. En los últimos años, autores y titulares de derechos han demandado a compañías como OpenAI o Anthropic por usar, presuntamente sin permiso, libros, artículos o guiones en el entrenamiento de sus modelos. Algunos casos siguen en marcha y otros ya han terminado en acuerdos millonarios.

En este contexto, cada nuevo pleito se interpreta como un paso más hacia una definición clara de qué se puede hacer o no con obras protegidas a la hora de entrenar modelos de IA. Los jueces empiezan a recibir argumentos parecidos, con datasets compartidos entre empresas y cadenas de fuentes que se repiten. Eso ayuda a crear un patrón legal, aunque aún haya mucha incertidumbre. Como resumía un abogado tecnológico consultado por Reuters, “los tribunales están aprendiendo sobre la marcha qué significa entrenar una IA con libros y música”.

En el caso concreto de Adobe, la acción colectiva se encuentra en una fase inicial y todavía hay muchas incógnitas. Lyon pide una compensación económica cuya cuantía no se ha detallado, y plantea que otros autores puedan unirse como parte afectada si sospechan que sus obras también pasaron por esa cadena SlimPajama‑RedPajama‑Books3. El tribunal puede desestimar la demanda antes del juicio, permitir que siga su curso o empujar a las partes hacia un acuerdo.

Qué puede significar este caso de Adobe para el futuro de la inteligencia artificial generativa y asistiva

Más allá de cómo termine, el litigio contra Adobe vuelve a poner sobre la mesa un dilema incómodo para toda la industria: cómo seguir mejorando modelos de inteligencia artificial sin pisar los derechos de autor de las personas cuyos contenidos se usan para entrenar esos sistemas. Si cada libro, canción o artículo necesita una licencia explícita, los costes y las negociaciones se disparan. Si no se pide nada, la sensación de abuso entre los creadores crece.

En los próximos meses habrá varias señales clave. Si el tribunal acepta la acción colectiva, Adobe podría enfrentarse no solo a la reclamación de Lyon, sino a la de muchos otros escritores. Si la empresa decide llegar a un acuerdo extrajudicial, eso marcaría una cifra de referencia para este tipo de conflictos. Y si el caso se desestima, otras tecnológicas leerán esa decisión como un indicador de hasta dónde pueden estirar el uso de datasets abiertos.

Para ti, como usuario, el impacto no se notará tanto en si una función concreta de SlimLM se mantiene o desaparece, sino en cómo se entrenan las próximas generaciones de modelos de inteligencia artificial. Lo que ocurra en este juicio puede empujar a las empresas a ser más transparentes con los datos, a explorar licencias colectivas o a crear nuevos programas de compensación para que la IA que usas a diario no viva permanentemente en la cuerda floja legal.

En cualquier caso, este choque entre la imagen de Adobe como defensora de los creadores y la demanda por el entrenamiento de SlimLM muestra que el debate sobre el copyright en inteligencia artificial no es algo abstracto. Afecta a cómo se construyen los modelos, a qué datasets se eligen y al tipo de acuerdos que se cierran con los autores, tanto en las grandes IA creativas como en esas pequeñas IAs de asistencia que ya se mezclan con cada documento que abres.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram