¿Alguna vez le pediste a ChatGPT una receta, un trámite o un dato y te respondió con una seguridad que tranquiliza… hasta que algo no cierra? Un hallazgo que llega desde la Universidad de Stanford intenta atacar ese problema de raíz. La investigadora Shuhui Qu propone un mecanismo para que modelos como GPT-4 dejen de “rellenar huecos” cuando no tienen información suficiente. La clave no es que la IA “piense mejor”, sino que deje de fingir omnisciencia.
El estudio parte de una idea incómoda: las alucinaciones, cuando el chatbot inventa datos, siguen siendo el talón de Aquiles de la IA generativa desde la popularización de estos asistentes. Y el problema es estructural. Los LLM (modelos de lenguaje, programas que predicen texto) están diseñados para continuar una respuesta, no para frenar y decir “no sé”.
En este enfoque, Qu lo llama “Planificación Categorial Bidireccional con Auto-Consulta” (un método para verificar lo que falta). Dicho en criollo: cada paso del razonamiento debería venir con un pequeño control de calidad. Si falta una pieza, el sistema tiene que reconocerlo antes de seguir.

La analogía doméstica ayuda a entenderlo. Un LLM hoy se parece a un electricista apurado que, al ver cables sueltos, igual conecta todo “como le parece” para que la luz prenda. A veces funciona. Pero otras veces deja un cortocircuito escondido detrás de la pared.
Lo que propone Stanford es instalar un interruptor extra en el tablero: antes de energizar el siguiente tramo, el sistema se pregunta si tiene la información necesaria. Si detecta una “condición desconocida”, no se le permite avanzar completando con suposiciones. Tiene que detenerse.
El mecanismo tiene dos salidas posibles. Primero, el modelo puede formular una pregunta concreta para obtener el dato faltante. Segundo, puede introducir pasos intermedios, como verificaciones o consultas adicionales, que quedan escritos como parte de su cadena de razonamiento. No es magia: es cableado de control.
También te puede interesar:Un Estudio en Nature Mental Health Cambia el Diagnósticas de Esquizofrenia Mediante el Uso de IAEn los experimentos, los investigadores usaron código externo para forzar a modelos como GPT-4 a responder solo cuando contaban con información completa. Las tareas fueron sencillas y deliberadamente “cotidianas”: preguntas sobre recetas de cocina y guías tipo Wikihow.
Además, ocultaron parte de la información a propósito. La idea era empujar al modelo a ese borde donde normalmente improvisa. Y ahí aparece la pieza clave: cuando las precondiciones de una respuesta se vuelven explícitas y se verifican antes de avanzar, los errores bajan de forma significativa en escenarios con datos incompletos.
Ahora bien, los propios autores reconocen un límite. Este enfoque no elimina por completo las alucinaciones. Reduce el margen de inventar cuando faltan datos, pero no convierte al sistema en una fuente perfecta ni en un árbitro de la verdad.
El obstáculo no es menor: implementarlo en productos masivos parece poco probable a corto y medio plazo. Rompe el flujo natural de los LLM actuales, que están pensados para generar respuestas completas de una sola vez, sin paradas ni “semáforos”.

Para que funcione en el mundo real haría falta una capa adicional de control. Esa central tendría que gestionar las “llamadas” al modelo, interpretar sus propias respuestas, clasificarlas y, cuando detecte incertidumbre, auto-bloquearse y pedir más datos. En otras palabras: un supervisor que no se deje impresionar por el tono seguro del chatbot.
Mientras ese engranaje no se vuelva estándar, es previsible que la IA siga fabricando respuestas inventadas, esos “triples” que suenan bien pero no sostienen una verificación básica. La buena noticia es que el camino no pasa solo por entrenar más: también puede pasar por enseñar a la máquina a frenar, como quien aprende a no tocar un cable hasta estar seguro de dónde viene la corriente.
También te puede interesar:OpenAI Presenta un Agente para Investigación Profunda
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.