Una ciudadana de California, sin dinero para abogada y con un desahucio encima, recurrió a ChatGPT para preparar una apelación que cambió por completo su caso. Lo relevante no es solo el giro en el tribunal, sino lo que implica para cualquiera que piense usar un chatbot en un juicio.
Lynn White perdió un litigio por impago de alquiler y quedó con un desalojo firme y deudas que superaban los 70.000 dólares. En Estados Unidos, y sin representación legal, abrió ChatGPT y Perplexity para redactar escritos, detectar errores del proceso y ordenar sus argumentos. Lo hizo desde su casa y con plazos ajustados, como tantas personas que hoy afrontan un procedimiento sin recursos suficientes.

Su método tuvo un punto llamativo: pidió a la herramienta que actuara “como un profesor de Derecho de Harvard”, que evaluara cada argumento y que no diera por bueno el texto hasta rozar el sobresaliente. Quedaba la trampa de siempre con la IA generativa: respuestas persuasivas que suenan perfectas, pero que pueden estar mal. ¿Cómo esquivó ese riesgo?
La clave fue iterar y comprobar. White forzó varias rondas de revisión y filtró las sugerencias que no cuadraban con el expediente. El tribunal terminó anulando el desahucio y el cobro de más de 70.000 dólares, y sus oponentes llegaron a elogiar la solidez de la apelación, animándola incluso a profesionalizarse. Ella lo resumió: “Nunca habría ganado la apelación sin la ayuda de la IA”.
Con todo, usar ChatGPT como asesor jurídico puede ser peligroso. Ya hubo abogados sancionados por presentar escritos con citas inventadas por un chatbot. Un magistrado de Nueva York calificó ese uso indebido como “un capítulo lamentable”, y en California otro juez impuso una multa de 10.000 dólares a un letrado por referencias ficticias.
La tendencia va a más. La asesora legal Meagan Holmes apunta que ha visto en el último año más demandantes sin representación que en toda su carrera, y muchos llegan con borradores hechos con IA. El abogado Robert Freund entiende esa vía cuando no hay dinero para abogadas, pero advierte que un profesional que use estas herramientas para engañar al juez traiciona los fundamentos del sistema.
Si tú te planteas apoyarte en ChatGPT para una apelación, conviene separar expectativas. Primero, estos modelos son generativos, no bases de datos jurídicas; pueden inventar jurisprudencia y referencias que parecen reales. Segundo, el tono seguro engaña, y ahí surgen los escritos pulidos pero erróneos. Tercero, si hay un fallo, la carga recae sobre ti, no sobre el chatbot.

En este contexto, las compañías desarrolladoras admiten los límites. OpenAI restringe su modelo para evitar asesoramiento legal, médico y financiero, y recuerda que sus sistemas pueden fallar. A fecha de 2025, la mayoría de herramientas muestran avisos claros: la responsabilidad es del usuario y la última palabra debe ser humana. La historia de White encaja como una excepción que confirma la regla: apoyo puntual, riesgo alto y resultados imprevisibles.
¿Qué funciona, entonces? Como hizo White, puedes usar la IA para ordenar ideas, detectar incoherencias y mejorar la redacción. Cada cita debe verificarse en fuentes oficiales y cada argumento contrastarse con el expediente. Las herramientas ayudan a pensar y a escribir, pero no sustituyen el criterio jurídico. Ese matiz marca la diferencia entre un recurso fuerte y un tropiezo caro.
La historia de Lynn White muestra que, con un método meticuloso y mucha comprobación, vas a poder convertir ChatGPT en un apoyo real. El uso en juicios sigue siendo arriesgado y, hoy, solo una minoría obtiene resultados tan favorables. Si te toca pasar por un tribunal, trata a la inteligencia artificial como un asistente de redacción y no como una abogada invisible.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.