Kim Kardashian, que estudia Derecho en California, ha descrito a ChatGPT como su “frenemy” en una entrevista con Vanity Fair. La celebridad admite que lo usa para resolver dudas jurídicas mientras prepara exámenes y que, a veces, confía en sus respuestas.
Según contó, hace fotos de preguntas legales y se las manda a ChatGPT para pedir consejo. Dice que las respuestas le llegan con seguridad, pero que suelen ser incorrectas. Ha llegado a suspender exámenes por seguir información equivocada y, en caliente, responsabiliza a la herramienta. Insiste en que le ayuda en su estudio diario, lo que abre una contradicción que muchos usuarios comparten.

La razón técnica está en las llamadas alucinaciones. ChatGPT no “sabe” si algo es cierto: predice la siguiente palabra que parece más probable a partir de muchos datos. Esa forma de generar texto brilla para resumir o dar ideas, pero puede inventarse artículos o sentencias. Con todo, cuando estudias Derecho, la diferencia entre plausible y correcto te puede costar un suspenso.
Kardashian reconoce que se frustra y “discute” con la IA. Incluso intenta apelar a sus sentimientos y le pregunta cómo “se siente” por haberle hecho fallar. Relata que el sistema le responde frases del tipo “esto te está enseñando a confiar en tus propios instintos”. Recuerda que ChatGPT no tiene emociones ni intención, mientras tú sí puedes reaccionar con enfado, sorpresa y risa ante lo que contesta.
Ese vaivén explica su etiqueta de relación “tóxica”: fascinación y decepción. Ella misma cuenta que hace capturas de pantalla de las charlas con ChatGPT y las comparte en su grupo de amigos, entre el asombro y la broma. Funciona como espejo de nuestras expectativas: queremos respuestas rápidas y perfectas, y nos topamos con límites muy humanos… en una máquina.
Cuando un modelo genera texto por probabilidad, puede mezclar conceptos reales con partes inventadas con tono convincente. ChatGPT no contrasta fuentes en tiempo real por defecto ni valida jurisprudencia, y si le envías una imagen con una pregunta, describe lo que “cree” ver y completa lo que falta.
También te puede interesar:OpenAI Prepara Novedades en ChatGPT: Grupos de Chat y Controles PersonalizadosEl riesgo no queda en clase. En junio de 2023, un tribunal de Nueva York sancionó con 5.000 dólares a dos abogados por presentar escritos con casos inexistentes generados por ChatGPT. Ese dato dejó claro que el “copia y pega” legal es terreno minado, y que una cita inventada es mucho más que una anécdota tecnológica cuando llega a un juez.

Antes, las dudas jurídicas se resolvían con manuales, bases de datos y profesores. Con la IA, ganaste velocidad y disponibilidad, pero faltaba una pieza: la verificación. Es turno de equilibrar ese uso si combinas la comodidad de ChatGPT con comprobaciones en jurisprudencia y apuntes fiables.
Si estudias Derecho o trabajas con normativa, piensa en señales prácticas para no tropezar dos veces:
Los próximos meses traerán modelos más capaces y opciones de citación automática, pero no cambian las reglas básicas. Si ves respuestas muy seguras sin referencias verificables, prepárate para una posible “alucinación”. Si el modelo reconoce límites o sugiere consultar fuentes primarias, estás en mejor terreno para decidir.
La historia de Kardashian resume el momento: puedes usar ChatGPT para aprender más rápido, pero no para delegar tu criterio. Si mantienes la curiosidad y la revisión por delante, evitas suspensos y podrás aprovechar lo útil de la herramienta sin caer en sus trampas más conocidas.
También te puede interesar:OpenAI recauda $6.6 mil millones y alcanza una valoración de $157 mil millones
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.