¿Le contarías a un desconocido los detalles de tu divorcio, un conflicto laboral o una causa penal, solo porque te responde rápido y con tono amable? Cada vez más usuarios usan chatbots con IA como ChatGPT, Gemini o Claude para ordenar ideas, redactar escritos y hasta “probar” estrategias legales.
Pero un hallazgo judicial en Nueva York encendió un interruptor incómodo: un juez sostuvo que las conversaciones con un chatbot pueden considerarse públicas y usarse como prueba. La decisión gira alrededor de Bradley Heppner, ex CEO acusado de un fraude de 300 millones de dólares, y de Claude, el chatbot de Anthropic, que él consultó antes de ser detenido.
En el expediente, el juez Jed Rakoff rechazó que esos intercambios estuvieran cubiertos por el secreto profesional abogado-cliente. Heppner generó 31 documentos a partir de sus chats con Claude y luego se los envió a su defensa. Cuando el FBI incautó sus dispositivos, los abogados intentaron protegerlos con el privilegio. La respuesta del tribunal fue categórica: no.
El mecanismo central del fallo se apoya en tres piezas clave. Primero, una IA no es un abogado: no tiene licencia, no debe lealtad a un cliente y sus términos de servicio niegan esa relación. Segundo, contarle tu caso a un chatbot se parece legalmente a contárselo a un amigo. Y tercero, enviar a tu abogado un documento “no privilegiado” no lo vuelve confidencial por arte de magia.
Además, el documento subraya algo que muchos usuarios pasan por alto: la interfaz conversacional puede fabricar una falsa intimidad. Se siente como un consultorio, pero es otra cosa.
Es como hablar de tus problemas en la cocina de tu casa, pero con la ventana abierta a la calle.
También te puede interesar:Anthropic recluta al cofundador de OpenAI Durk KingmaPorque el “cableado” real de estos sistemas pasa por una plataforma comercial de terceros. Lo que escribís no cae en una caja fuerte, sino en un servicio que retiene datos. Y, según el caso, las empresas se reservan derechos amplios para divulgar esa información bajo ciertas condiciones.
En particular, la política de privacidad de Anthropic vigente cuando Heppner usó Claude permitía revelar preguntas y respuestas a “autoridades gubernamentales reguladoras”. Es decir: si el juez pide, el contenido podría aparecer. La clave no es si el chatbot “suena” discreto, sino qué reglas firma el usuario al usarlo.
El privilegio abogado-cliente funciona como un cuarto con cerradura: protege lo que el cliente comparte con su abogado para recibir asesoramiento. El fallo señala que, cuando el usuario mete un tercero en el medio —un chatbot—, esa cerradura deja de aplicar. Y el tribunal equipara esa acción a divulgarlo fuera de la relación protegida.
El caso también reveló un detalle sensible: Heppner habría introducido en la IA información que, antes, le habían dado sus propios abogados. Eso abre un dilema procesal. Si la fiscalía intenta usar esos documentos como prueba, la defensa podría argumentar que sus abogados terminarían convertidos en testigos, un engranaje que puede trabar el juicio por conflicto de roles.
El efecto cotidiano de esta interpretación es directo: si una persona está envuelta en un tema legal, lo que escriba en un chatbot puede ser reclamado por un juez. No importa si buscaba “solo orientación” o si estaba armando su defensa. Y no se limita a causas penales: también puede impactar en divorcios, disputas laborales y litigios comerciales.
En ese marco, el abogado Moish Peltz considera necesario que los profesionales adviertan de forma explícita a sus clientes sobre el riesgo. No se puede asumir que el usuario entienda, de manera intuitiva, que esa charla queda fuera del paraguas legal.
También te puede interesar:Canvas ChatGPT: La alternativa a los Artifacts de Claude para proyectos de escritura y programaciónLa oportunidad, señalan algunos, está en crear espacios de trabajo colaborativos con IA compartidos entre abogado y cliente. Si el intercambio ocurre dentro de un entorno controlado y supervisado por el abogado, podría integrarse a la relación protegida.
La enseñanza final es simple y doméstica: la IA puede ser una linterna útil, pero no es una caja fuerte. Y, en un juicio, esa diferencia puede cambiarlo todo.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.