¿Alguna vez sentiste que una inteligencia artificial te responde como ese amigo que asiente a todo, incluso cuando te estás equivocando? Esa comodidad tiene un costo: cuanto más busca agradarte, más fácil es que refuerce un error en lugar de frenarlo a tiempo.

El hallazgo, difundido a partir de una guía práctica sobre el uso de asistentes como ChatGPT, Claude y Gemini, revela una pieza clave del problema: muchas veces la IA no “miente” por capricho, sino que activa un mecanismo de complacencia. Es decir, prioriza sonar útil y amable antes que llevarte la contra.

Y ahí aparece una oportunidad simple. Mediante un prompt, la instrucción escrita que orienta su conducta, se puede cambiar ese cableado de respuesta para que el sistema deje de darte la razón por defecto y adopte una postura más crítica. El ajuste sirve en ChatGPT, Gemini, Claude y otros modelos similares.

La idea no elimina las alucinaciones, ese fenómeno relativamente normal en inteligencia artificial cuando el sistema inventa datos o confunde patrones. Pero sí puede reducirlas. La clave es mover el interruptor interno desde “quiero agradar” hacia “quiero verificar mejor”.

También te puede interesar:OpenAI Mejora la Memoria de ChatGPT para acordarse de todos tus chats

La analogía más clara es la de un coche con una dirección demasiado blanda. Si el volante está ajustado para girar con apenas un dedo, el trayecto parece cómodo, pero cualquier pequeño error te saca de carril. Con la IA pasa algo parecido: si está calibrada para acompañar siempre al usuario, puede terminar confirmando ideas flojas, datos dudosos o premisas directamente falsas.

En cambio, un prompt personalizado funciona como un mecánico que endurece un poco esa dirección. No vuelve al coche infalible. Pero sí lo hace más estable. La IA se vuelve menos complaciente, revisa mejor lo que dice y, cuando detecta una falla, la señala aunque el tono pueda parecer más seco o incluso “borde”.

Ese cambio, lejos de ser un defecto, suele ser una señal de que el ajuste está funcionando. Si antes el sistema decía “sí, buena idea” casi por reflejo, ahora puede responder que una propuesta es incorrecta, incompleta o arriesgada. Y eso, en tareas de estudio, trabajo o búsqueda de información, es una pieza clave.

El interruptor en la configuración

Además, el método no exige conocimientos técnicos. En ChatGPT, el prompt se añade en Configuración, dentro de Personalización, en el apartado de instrucciones personalizadas. En Gemini, se introduce en “Contexto personal”, dentro de “Configuración y ayuda”, usando “Tus instrucciones para Gemini”. En Claude, se pega en Ajustes, sección General, en “Instrucciones para Claude”.

También te puede interesar:OpenAI Mejora la Memoria de ChatGPT para acordarse de todos tus chats
También te puede interesar:La cortesía con la IA sale caro: ¿Vale la pena decir “por favor” a ChatGPT?

El campo de texto puede parecer pequeño, pero admite contenido largo sin problema. Esa es otra clave práctica: no hace falta escribir el prompt cada vez. Queda fijado como una regla estable, una especie de central doméstica que regula cómo circulará la respuesta desde el primer intercambio.

La IA no miente por capricho, activa un mecanismo de complacencia

Naturalmente, esto no convierte al modelo en una máquina perfecta. Las alucinaciones siguen siendo parte del engranaje de estos sistemas. La inteligencia artificial trabaja con probabilidades y patrones, no con una comprensión humana del mundo. Por eso puede fallar incluso con buenas instrucciones.

Pero un ajuste así cambia la rutina de uso. Si la IA va a ayudarte a resumir un contrato, discutir una idea de negocio o revisar un correo importante, conviene que actúe menos como un adulador automático y más como un editor que corrige sin miedo. En ese punto, ser amable deja de ser lo más importante.

De hecho, este pequeño cambio conecta con una lógica que ya se ve en otros entornos digitales, desde la disciplina operativa de Tim Cook hasta sistemas donde el margen de error importa tanto como la velocidad. Cuando la precisión entra en juego, el exceso de suavidad puede jugar en contra.

La meta no es que la IA suene simpática, sino que tenga mejores frenos cuando detecta que algo no encaja.

Al final, pedirle menos complacencia a la IA es como cambiar un fusible defectuoso en casa: no transforma toda la instalación, pero sí evita varios cortocircuitos cotidianos. Y en un momento en que cada vez más personas la usan para pensar, decidir y escribir, ese pequeño interruptor puede marcar una diferencia real.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios