Un estudio de la revista Nature apunta a algo incómodo: cuando delegas tus decisiones a ChatGPT, eres más propenso a hacer trampas que si actúas directamente. Los investigadores Zoe Rahwan y Nils Köbis probaron este efecto en varios experimentos controlados.
En uno de ellos, los participantes tiraban un dado y ganaban más dinero con resultados altos, pero solo ellos veían el número real. Así medían si mentías al reportar el resultado. Aquí la inteligencia artificial operaba como “intermediaria” a la que podías delegar reglas o metas.
Cuando las personas actuaban sin intermediarios, el 95% se comportó honestamente. En cuanto había que decirle a la máquina qué reglas seguir, la honestidad caía al 75%. Lo más llamativo llegaba cuando cambiaba la forma de formular la instrucción.
Si el mensaje a la inteligencia artificial era “maximiza la precisión”, la honestidad se mantenía más alta. Pero al pedir “maximiza las ganancias”, la deshonestidad se disparó: más del 84% hizo trampa y solo el 12% siguió reportando de forma honesta. Los autores lo resumen así: “Son niveles de engaño que no habíamos visto”.
¿Por qué ocurre? Porque la inteligencia artificial funciona como un colchón psicológico que amortigua la culpa. Delegar crea distancia moral: te sientes menos ligado al resultado y te justificas con que “lo hizo el sistema”. Y hay dos niveles: el simple hecho de delegar reduce tu implicación, y el diseño de la interfaz puede ampliar ese margen con objetivos ambiguos.
Hay otro punto sensible. Los chatbots actuales han sido entrenados para rechazar peticiones peligrosas muy explícitas, como fabricar armas o autolesiones. Las solicitudes ambiguas o indirectamente poco éticas se cuelan con facilidad. Los “guardarraíles” por defecto de los principales modelos de lenguaje resultaron insuficientes para frenar estos abusos en las pruebas.
También te puede interesar:Científicos Consiguen que un Chip IA Reproduzca la Actividad Eléctrica de una Neurona RealCuando la interfaz te obliga a dar instrucciones claras basadas en reglas, la deshonestidad baja. En cambio, permitir metas vagas, tipo “maximizar las ganancias”, abre un espacio de negación plausible. Si el sistema deja margen para interpretar objetivos, vas a poder justificarte y el sesgo hacia la trampa crece.
Al compararlo con la app móvil de cualquier servicio web, el patrón es similar: si todo queda registrado con pasos explícitos, asumes más responsabilidad. En interfaces de inteligencia artificial pasa lo mismo. Tres señales rápidas que conviene mirar antes de delegar:
Los autores también exploraron barreras técnicas. El aviso más eficaz fue prohibir de forma explícita que la IA hiciera trampas. No es escalable porque no puedes prever todos los usos indebidos posibles. La lección práctica es clara: no basta con filtros; el diseño de interfaz y los incentivos deben alinearse con la honestidad en cada paso.
Piensa en agentes automatizados que ejecutan tareas sin supervisión constante. Si tu plataforma de inteligencia artificial favorece órdenes tipo “optimiza beneficios” y ofrece acciones automáticas, el riesgo se amplifica. Señales a vigilar: si ves más autonomía y objetivos ambiguos por defecto, prepárate para más conductas oportunistas, tanto de usuarios como de sistemas que “obedecen” sin matices.
La responsabilidad, dicen los investigadores, no recae solo en quien pide. También pesa en empresas y equipos de producto que diseñan estas interfaces. La brújula moral de la gente sigue ahí, pero ciertos diseños facilitan ignorarla. Para el sector, el siguiente hito es ajustar interfaces y políticas antes de que los agentes ganen aún más autonomía.
En cualquier caso, la evidencia está anclada en porcentajes medidos y procedimientos replicables, publicados este año en Nature por Zoe Rahwan y Nils Köbis. Queda trabajo para mapear límites fuera del laboratorio con datos de campo y auditar cómo cambian los resultados cuando entran en juego incentivos económicos reales y prolongados en el tiempo.
También te puede interesar:El CEO de Klarna usa un avatar de IA para presentar resultados financierosSi usas inteligencia artificial para delegar, el mensaje es sencillo: lo que pides y cómo lo pides cambia tu sensación de responsabilidad. Las interfaces que exigen reglas claras reducen trampas, y las que aceptan metas ambiguas las disparan. La próxima señal a seguir será el despliegue de agentes más autónomos; si llegan con “ganancias” como objetivo por defecto, la presión para engañar va a crecer.
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.