Cuando lees noticias sobre inteligencia artificial, casi siempre aparecen las mismas preguntas: ¿quién paga el contenido que consumen los modelos?, ¿hasta dónde llega el “uso legítimo” de datos?, ¿qué pasa con los derechos de autor? El conflicto New York Times vs Perplexity junta todas esas dudas en un solo caso, con un ingrediente extra: muchos millones en juego y un posible cambio de reglas para toda la industria.
Para situarte, la nueva demanda del New York Times contra Perplexity acusa a la startup de infringir derechos de autor al usar sus artículos como base de productos comerciales de IA. Según el diario, el buscador con inteligencia artificial está ofreciendo respuestas que actúan como sustituto directo del propio periódico, pero sin permiso ni compensación económica.

Esta es ya la segunda demanda del Times contra una gran empresa de IA, lo que muestra una estrategia clara: usar los tribunales como palanca para negociar licencias y pagos. El mensaje de fondo es sencillo: si un modelo de IA se alimenta de periodismo profesional, ese periodismo tiene un precio, y los creadores quieren cobrarlo.
La clave técnica del caso está en cómo funciona el buscador de Perplexity, que se basa en un sistema de generación aumentada por recuperación (RAG). Este enfoque combina un modelo de lenguaje con un motor que rastrea páginas web y bases de datos para responder a tus consultas con textos ya “masticados”.
Según la demanda, Perplexity no se limita a inspirarse: recoge información de múltiples fuentes, la reempaqueta y te la entrega en forma de respuesta redactada. El Times sostiene que esas respuestas muchas veces son reproducciones literales o casi literales, resúmenes directos o versiones abreviadas de sus artículos protegidos por copyright, lo que para el periódico cruza claramente la línea legal.
Una de las acusaciones más duras es que la tecnología RAG de Perplexity puede rastrear incluso contenido que está detrás del muro de pago del New York Times. Es decir, material que solo debería ver una persona suscrita al periódico acaba apareciendo gratis en las respuestas del asistente de IA.
También te puede interesar:Perplexity Lanza su Nueva Herramienta de Investigación Profunda GratisGraham James, portavoz del Times, lo resume de forma muy directa: la empresa estaría usando esa tecnología para “robar contenido” protegido y entregarlo en tiempo real a sus clientes. Desde la perspectiva del medio, si tú pagas una suscripción para acceder a una información y otro servicio te la ofrece sin pagar licencia, el modelo de negocio del periodismo se resquebraja.
La demanda no se dirige solo contra el buscador básico, sino contra varios productos basados en IA generativa y RAG, como sus chatbots y el asistente Comet. El Times argumenta que todos estos servicios siguen el mismo patrón: extraer contenido, procesarlo y devolverlo en forma de respuesta, sustituyendo la visita directa al medio original.
Según el periódico, el resultado práctico es que un usuario deja de entrar en la web del New York Times, deja de ver su publicidad y deja de pagar una suscripción, porque Perplexity ya le da lo esencial en un único resumen. Desde el punto de vista de un editor, esto supone un conflicto frontal con el modelo de negocio digital actual.
Más allá del copyright, la demanda añade otra capa de riesgo: las alucinaciones de la IA. El Times sostiene que el sistema de Perplexity ha generado información falsa en varias ocasiones y se la ha atribuido al periódico como si fuese su fuente.
Cuando una IA cita a un medio serio como el New York Times para apoyar una afirmación inventada, el problema deja de ser técnico y se vuelve reputacional. Según el periódico, este tipo de errores daña directamente su marca, porque el lector puede creer que el medio ha publicado algo que nunca ha escrito.
Si te preguntas por qué tantos medios están recurriendo a los tribunales, la respuesta está en la táctica de fondo. Desde hace varios años, editores de todo el mundo están usando las demandas de copyright como herramienta para presionar a las empresas de IA y forzar acuerdos de licencia pagada.
También te puede interesar:Perplexity Anuncia Comet: Su Navegador Web con IA
El objetivo no es tanto “parar la tecnología”, algo prácticamente imposible, sino negociar desde una posición de fuerza. La lógica es clara: sin contenido periodístico, muchos sistemas de búsqueda con inteligencia artificial se quedan cojos, y ese valor debe reconocerse con contratos y pagos recurrentes.
Jesse Dwyer, responsable de comunicación de Perplexity, intenta encajar esta demanda en una larga historia de conflictos entre editores y nuevas tecnologías: radio, televisión, internet, redes sociales y ahora IA. Según su visión, todas esas olas de innovación se han enfrentado a pleitos similares que nunca han conseguido frenar el avance tecnológico.
El artículo que describe el caso matiza mucho esa lectura. Recuerda que, en varias ocasiones, los editores sí han ganado o han influido en batallas legales clave. Esas victorias han derivado en acuerdos millonarios, nuevos sistemas de licencias y precedentes judiciales que todavía marcan cómo funciona hoy la industria de los contenidos digitales.
Con todo, Perplexity no ha estado cruzada de brazos ante las peticiones de los medios. En 2024 lanzó un “Publishers’ Program” que busca compartir ingresos publicitarios con los editores que aceptan participar. Entre los medios que se han sumado aparecen grupos importantes como Gannett, TIME, Fortune o Los Angeles Times.

La idea es que, si la IA de Perplexity muestra o resume contenido de esos medios, parte de los ingresos de anuncios que genera el servicio vuelva al origen. Para muchos editores, es un modelo interesante, pero el New York Times sostiene que no es suficiente y que, en su caso, el uso de contenido se ha hecho sin un acuerdo previo.
En agosto de 2025, Perplexity dio un paso más con el lanzamiento de Comet Plus, una versión de pago de su asistente de IA. Este servicio cuesta 5 dólares al mes y, según la empresa, destina el 80 % de esa cuota mensual a los editores que forman parte de su programa de editores asociados.
Si lo miras desde fuera, parece un intento claro de crear un modelo de negocio en el que la IA y los medios compartan ingresos. El Times insiste en que, mientras no exista un acuerdo específico entre ambas partes, cualquier uso de su contenido en Comet Plus o en otros servicios de la compañía sigue siendo no autorizado.
Para reforzar su imagen de empresa dispuesta a pagar por contenidos, Perplexity también ha anunciado un acuerdo de licencia multianual con Getty Images para usar sus materiales visuales en sus productos de IA. Este tipo de pacto muestra que la startup acepta el modelo de licencias cuando se trata de imágenes.
El contraste que remarca el New York Times está en el trato al contenido escrito. Mientras las fotos de Getty sí están cubiertas por un contrato, el periódico acusa a la compañía de no aplicar el mismo criterio a millones de palabras de periodismo original que alimentan las respuestas escritas de la IA.
Aunque pueda sonar a choque frontal, el propio New York Times afirma que no está en contra del uso de la inteligencia artificial. Graham James lo explica con bastante claridad: el medio cree en el uso ético de la IA, pero se opone radicalmente al empleo no licenciado de su trabajo para desarrollar, entrenar y promocionar productos comerciales.
Para el periódico, la línea roja está en el reconocimiento económico. Si una empresa de IA quiere usar sus artículos como base para entrenar modelos o para responder a preguntas de usuarios, esa empresa tiene que pagar, igual que ya ocurre con otras licencias editoriales y de archivo.
La demanda actual no llegó de un día para otro. Algo más de un año antes, el Times había enviado a Perplexity una carta de “cease and desist”, es decir, un requerimiento formal para que dejase de usar su contenido en resúmenes y otras salidas de IA sin permiso.
En los últimos 18 meses, según el periódico, se produjeron varios contactos adicionales con la startup para intentar ordenar la situación. El mensaje era siempre el mismo: o se alcanza un acuerdo de licencia, o el uso del material debe parar. Como esa condición no se cumplió, el siguiente paso ha sido acudir a los tribunales.
El caso Perplexity no es la única batalla legal del New York Times en el terreno de la IA. El periódico ya mantiene otra demanda contra OpenAI y su principal socio Microsoft, a quienes acusa de entrenar sus sistemas con millones de artículos del diario sin pagar ningún tipo de compensación.

Aquí el foco está en la fase de entrenamiento de los modelos, no tanto en las respuestas en tiempo real. El Times alega que su archivo periodístico se ha usado como materia prima para que los modelos aprendan a escribir y responder, todo ello sin licencia específica ni acuerdo económico.
OpenAI se defiende apelando al concepto de “fair use” (uso legítimo) en el derecho de autor estadounidense. Según la empresa, emplear datos disponibles públicamente para entrenar modelos de IA encajaría dentro de ese uso legítimo, igual que ocurre con otros procesos de análisis masivo de datos.
La compañía ha ido más allá en su respuesta pública, acusando al New York Times de manipular ChatGPT para generar ejemplos extremos que apoyen sus reclamaciones legales. Según OpenAI, el periódico habría forzado ciertas interacciones con el chatbot para obtener salidas especialmente problemáticas que luego se usan como prueba en la demanda.
Mientras estos casos seguían su curso, otro litigio relacionado con IA ha dado pistas muy concretas sobre los límites del fair use en el entrenamiento de modelos. Se trata de la demanda contra Anthropic, donde varios autores y editores denunciaron que la compañía había usado libros pirateados para entrenar sus sistemas.

El tribunal hizo una distinción clave: una cosa son los libros adquiridos legalmente, que podrían encajar dentro del uso legítimo en ciertos contextos de entrenamiento, y otra muy distinta son las obras pirateadas, cuyo uso sí vulnera claramente los derechos de autor. Esa diferencia, aparentemente técnica, puede marcar el camino de futuras sentencias.
Ante ese escenario, Anthropic decidió no seguir peleando y aceptó un acuerdo de 1.500 millones de dólares para cerrar la disputa. Aunque no es una sentencia firme, esa cifra sirve como referencia de cuánto puede costar, en la práctica, usar contenido protegido sin un marco legal sólido.
Para casos como el del New York Times contra Perplexity o contra OpenAI y Microsoft, este precedente pesa bastante. Los jueces ya tienen un ejemplo concreto de cómo se puede valorar económicamente el daño y de cómo diferenciar entre usos legítimos y usos claramente infractores en el contexto del entrenamiento de sistemas de IA.
El Times no está solo en su pulso con Perplexity. En los últimos años, otros grandes grupos mediáticos han criticado con dureza el modo en que la startup de búsqueda con IA trata el contenido de terceros. Esta presión legal y pública se ha ido acumulando hasta crear un frente bastante amplio.
News Corp, propietaria de medios como The Wall Street Journal, Barron’s o New York Post, ya había presentado reclamaciones parecidas el año anterior. Desde su perspectiva, Perplexity también estaba usando material editorial para alimentar sus respuestas sin acuerdos de licencia adecuados.
En 2025, la lista de actores que se han enfrentado a Perplexity se ha alargado bastante. Entre los nuevos demandantes o reclamantes aparecen nombres tan distintos como Encyclopedia Britannica, Merriam-Webster, Nikkei, Asahi Shimbun y Reddit. Todos comparten una misma queja general: su contenido se ha usado sin permiso claro.
Esta diversidad de fuentes, que va desde diccionarios y enciclopedias hasta plataformas sociales, muestra que el problema no se limita al periodismo tradicional. Cualquier repositorio valioso de información estructurada se ha vuelto atractivo para entrenar y potenciar servicios de IA, y muchos de sus dueños están pidiendo ahora una compensación directa.
A las demandas formales se suman acusaciones públicas lanzadas por medios como Wired y Forbes. Ambos han señalado que Perplexity habría rastreado y extraído contenido de sitios que habían indicado explícitamente que no querían ser “scrapeados” por sistemas de IA, algo que va más allá del simple desacuerdo legal.
Cloudflare, un proveedor clave de infraestructura de internet, ha confirmado recientemente parte de estas acusaciones, señalando que Perplexity ha estado extrayendo datos de páginas que bloqueaban de forma clara el scraping de IA. Si esto se confirma en los tribunales, la posición de la startup se complica, porque ya no hablamos solo de disputas teóricas sobre fair use, sino de saltarse bloqueos técnicos intencionados.
En su demanda actual, el New York Times pide al tribunal dos grandes medidas. Por un lado, una indemnización económica por los daños causados por la infracción de copyright y el uso no autorizado de su contenido en productos comerciales de IA. Por otro, una orden judicial que prohíba a Perplexity seguir usando sus artículos sin licencia.

Si el periódico consigue una victoria clara, no solo logrará un pago elevado, sino también un precedente legal muy potente. Cualquier otra empresa de IA que use contenidos periodísticos para entrenar modelos o para responder a consultas podría verse obligada a seguir el mismo camino de licencias y compensaciones obligatorias.
Pese al tono duro de las demandas, el New York Times también está construyendo un camino paralelo basado en acuerdos de licencia. A comienzos de este año, el diario firmó un contrato multianual con Amazon para usar su contenido en el entrenamiento de los modelos de IA del gigante tecnológico.

Ese acuerdo muestra que el periódico no rechaza por sistema el uso de sus datos en inteligencia artificial. Lo que pide, en la práctica, es una estructura clara: una licencia, un precio y unas condiciones de uso bien definidas. Cuando esas tres piezas encajan, el conflicto se reduce mucho y la IA pasa a ser un cliente más del contenido editorial.
Este enfoque de licencias no es exclusivo del Times. Numerosos editores y empresas de medios han firmado acuerdos semejantes con compañías de IA para permitir que sus artículos se usen tanto en el entrenamiento de modelos como en las respuestas de chatbots. Es una forma de reconvertir un conflicto potencial en una nueva línea de ingresos.
OpenAI, por ejemplo, ha cerrado pactos de contenido con Associated Press, Axel Springer, Vox Media, The Atlantic y otros grupos de medios. En todos estos casos, la clave es que la IA generativa sigue usando noticias y reportajes, pero lo hace bajo un marco de licencia pagada. El caso New York Times vs Perplexity puede empujar a que más empresas elijan esta vía antes de arriesgarse a un juicio.
A medida que más medios reclaman licencias y más tecnológicas firman acuerdos, todo apunta a que el futuro pasará por modelos de IA entrenados con contenido periodístico, sí, pero bajo contratos claros y pagos que reconozcan el valor de ese trabajo original.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.