¿Le confiarías un trámite delicado a una herramienta que responde en segundos, pero a veces inventa una pieza clave? Esa es la pregunta que vuelve a encenderse cada vez que la inteligencia artificial sale del chat cotidiano y entra en una sala de tribunal.
El nuevo caso tiene nombres pesados: Sullivan & Cromwell, uno de los bufetes más prestigiosos de Wall Street; Boies Schiller Flexner, el despacho rival; y el juez federal de quiebras de Manhattan, Martin Glenn. El hallazgo fue incómodo: un escrito judicial incluía referencias inexactas, citas legales erróneas y hasta casos inexistentes, una señal clásica de uso descuidado de IA.

La pieza se rompió cuando la parte contraria revisó la documentación y detectó que el cableado no cerraba. Andrew Dietderich, codirector del grupo de reestructuración de Sullivan & Cromwell, presentó luego una disculpa formal ante el juez, expresó arrepentimiento y confirmó que el bufete corrigió los errores y abrió una investigación interna.
El episodio revela algo más grande que un tropiezo reputacional. También subraya un mecanismo que ya preocupa fuera del mundo legal: asistentes como ChatGPT, Gemini o Claude ayudan a acelerar tareas, pero pueden producir “alucinaciones”, es decir, respuestas falsas o inventadas con apariencia de seguridad.
La analogía más simple es la de un GPS que te da una ruta con voz firme, aunque una calle no exista. Si quien conduce conoce la ciudad, detecta el desvío. Si no la conoce, sigue adelante y el error deja de ser un detalle: se convierte en una decisión.
Eso mismo ocurre en derecho, donde cada cita funciona como un tornillo de sujeción. Si una referencia legal está mal identificada o un caso nunca existió, el escrito pierde estructura. Y cuando esa pieza llega a un juez, ya no se discute solo una herramienta: se discute el rigor profesional de quien firmó.
Además, el problema no es aislado. Estudios recientes indican que una de cada diez respuestas generadas por AI Overviews de Google contiene errores o datos inexactos. Extrapolado a escala global, ese engranaje defectuoso podría traducirse en cerca de un millón de informaciones falsas por minuto.
El interruptor que falla cuando nadie revisa
En términos simples, la IA conversacional trabaja por probabilidad. No “sabe” como un experto humano: predice la siguiente palabra plausible a partir de enormes volúmenes de texto. Ese mecanismo, llamado inferencia (cálculo de respuesta probable), es útil para redactar rápido, pero no garantiza verdad factual.

Por eso, en contextos críticos, la revisión humana no es un paso opcional. Es el interruptor central. Si alguien usa estos sistemas para resumir jurisprudencia, buscar antecedentes o redactar una moción, debe comprobar cada fuente, cada fecha y cada cita como si revisara una instalación eléctrica antes de encenderla.
El caso de Sullivan & Cromwell recuerda incidentes previos en los que abogados presentaron escritos con información ficticia creada por IA. La diferencia aquí es el peso simbólico del actor involucrado. Cuando un bufete de ese tamaño falla, el mensaje alcanza a toda la industria.
También deja una oportunidad de aprendizaje para otros sectores. En medicina, educación, finanzas o recursos humanos, el patrón es similar: la IA simplifica procesos y reduce tiempos, pero no reemplaza la verificación en tareas sensibles. La velocidad no puede desconectar el control.
De hecho, el golpe más duro no siempre es legal. A veces es reputacional. En profesiones donde la confianza es la moneda central, un documento desmontado por errores básicos puede afectar años de prestigio en cuestión de horas.
La clave, entonces, no es apagar estas herramientas, sino usarlas como un asistente y no como un notario. Pueden ordenar papeles, sugerir caminos y ahorrar tiempo. Pero cuando la puerta que se abre da a un juzgado, alguien tiene que comprobar que la llave sea real.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.








