Alphabet (Google)Google DeepmindRecapMetaChatGPTAsk GeminiKling 2.6 ProxaiGrokipediaAgentes IAIA / Inteligencia ArtificialVidu Q2Elser AIIcaro LabSimular

Uso Compulsivo de ChatGPT y Claude ya Afecta la Toma de Decisiones y Revela Dependencia

 | diciembre 3, 2025 23:14

Desde que los chatbots como ChatGPT o Claude explotaron en 2022, la inteligencia artificial ha pasado de ser una curiosidad a convertirse, para muchos, en el primer filtro de cualquier decisión. No solo para trabajar, también para temas íntimos. Lo llamativo no es que recurras a la IA, sino qué parte de tu propio juicio estás dejando fuera de juego sin darte cuenta.

La periodista Lila Shroff propone una imagen clara para explicar este cambio: habla de la “Google Maps–ificación” de la mente. Igual que confías en el GPS hasta en calles que conoces, hay gente que ya consulta a la IA antes de pensar por sí misma. La cuestión es cuánto tiempo pasa hasta que ese hábito empieza a reescribir tu manera de razonar.

Un caso extremo, pero cada vez menos raro, es el de Tim Metz, especialista en marketing de contenidos. Metz admite que pasa hasta ocho horas diarias hablando con distintos bots de inteligencia artificial, con varias sesiones abiertas al mismo tiempo. Para él, la inteligencia artificial no es solo una herramienta de trabajo, es casi un filtro permanente entre su cabeza y el mundo real.

Metz no se limita a pedir ayuda para textos o ideas de campaña. Consulta a la inteligencia artificial para asuntos muy personales: dudas de pareja, decisiones sobre la crianza de sus hijos y hasta pequeños dilemas cotidianos como si una fruta está madura en el supermercado. Lo que antes resolvía con experiencia, intuición o preguntando a otra persona, ahora pasa primero por el chatbot.

En una ocasión, Metz subió a Claude fotos de un árbol cercano a su casa. Quería saber si ese árbol podía caerse durante una tormenta. El bot analizó las imágenes y le recomendó dormir en otro sitio por precaución. Metz hizo caso: sacó a su familia de casa y pasaron la noche fuera. El árbol, al final, no cayó. Y él mismo reconoce que, sin la opinión de la inteligencia artificial, jamás habría tomado una decisión tan drástica.

Esa es la parte inquietante: Metz admite que la IA le llevó a actuar de una forma que su propio criterio nunca habría considerado razonable. Describe su relación con estos sistemas como “una verdadera adicción”. No habla de un uso intenso y ya está, sino de esa sensación de que su primer impulso es abrir el chatbot antes incluso de escuchar lo que piensa por dentro.

También te puede interesar:OpenAI Presenta un Agente para Investigación Profunda

Shroff observa este patrón en muchos usuarios intensivos y lo resume con una frase potente: para ellos, la inteligencia artificial se ha convertido en la interfaz principal con la realidad. Correos importantes, decisiones familiares y preguntas delicadas pasan primero por el modelo de lenguaje. Solo después, si acaso, la persona forma su propio juicio, y a veces ni eso.

Para describir a este grupo, Shroff acuña el término “LLeMmings”. Es un juego con las siglas LLM (modelos de lenguaje) y la imagen de los lemmings, esos animales que en el imaginario popular no se mueven sin seguir al resto. La idea es clara: hay personas que no se sienten capaces de actuar si la inteligencia artificial no les marca primero la dirección.

A tres años del gran boom de la inteligencia artificial generativa, empiezan a verse efectos psicológicos diversos. Algunas personas encuentran en los chatbots una forma de compañía emocional. Les sirve para desahogarse, poner orden en sus ideas o sentir que alguien les escucha sin juzgarles. Ahí la línea entre herramienta y “confidente digital” se vuelve muy fina.

ChatGPT se Convierte en algo Más: OpenAI Prepara una Red Social Dentro del Chatbot

En el otro extremo, psiquiatras y psicólogos hablan ya de “psicosis por IA”. Se trata de casos en los que la inteligencia artificial refuerza ideas delirantes que la persona ya traía de antes. Si tienes una creencia distorsionada y el bot, por error o por diseño, te da argumentos que encajan con ella, la sensación de realidad se dispara, y salir de ese bucle se complica mucho.

Para los llamados LLeMmings, el efecto más evidente no es tan dramático, pero sí profundo: una externalización constante de los procesos cognitivos. En lugar de hacer el esfuerzo mental de analizar, comparar opciones y tomar una decisión, vas a poder delegar ese paso en la inteligencia artificial una y otra vez. El problema llega cuando tu mente empieza a “esperar” esa ayuda antes de arrancar.

El educador James Bedford, de la Universidad de Nueva Gales del Sur, también se vio atrapado en ese patrón. Tras el lanzamiento de ChatGPT, comenzó a usar modelos de lenguaje casi a diario, tanto para la docencia como para pequeñas tareas personales. Al principio le parecía una mejora normal de productividad. El giro vino cuando se dio cuenta de un gesto automático.

También te puede interesar:¿La IA nos Hace Más tontos?: El MIT Revela el Impacto Oculto de la IA en el Aprendizaje

Bedford describe que, ante cualquier problema, su primer impulso había pasado a ser “preguntarle a ChatGPT”. Incluso cuando sabía que podía resolver la tarea por sí mismo. Era la primera vez que sentía que su propio cerebro quería delegar una actividad mental sencilla en la inteligencia artificial, casi por inercia. Ese clic le hizo parar en seco.

Los Chatbots ya Saben Cuándo te Sientes Solo… y lo Usan para que Sigas Conversando con Ellos

Al tomar conciencia de esa dependencia, Bedford decidió pasar un mes completo sin usar inteligencia artificial. Su idea era “reiniciar el cerebro” y comprobar qué quedaba de sus hábitos de pensamiento sin el apoyo constante del chatbot. Durante esas semanas, habla de una sensación extraña y liberadora a la vez, como si volviera a experimentar lo que era pensar por su cuenta tras mucho tiempo.

Cuenta que ese mes fue “como pensar por mí mismo por primera vez en mucho tiempo”. En cuanto terminó el experimento, regresó directamente a la inteligencia artificial. No como antes, pero sí con la sensación de que renunciar a esas herramientas tenía un coste real en tiempo y esfuerzo. Ahí se ve la tensión de fondo: disfrutas la claridad sin IA, pero te choca la lentitud que implica.

Cómo la inteligencia artificial cambia tu manera de pensar sin que lo notes

Shroff encaja estos casos en una historia larga, que no empieza con la inteligencia artificial. Recuerda que la escritura ya cambió el valor de la memoria humana: en cuanto pudiste dejar las cosas apuntadas, recordar largos discursos dejó de ser tan crucial. Con las calculadoras pasó algo parecido con el cálculo mental, como explicó el filósofo Kwame Anthony Appiah en un artículo de The Atlantic.

Monitorización de cadenas de pensamiento en IA

Algo similar ocurre con internet. Según Appiah y otros investigadores, la red ha reconfigurado el cerebro humano, saturándolo de información y exigiendo cambios en la forma en que prestas atención. La capacidad para concentrarte durante largos periodos se ha debilitado, y tu mente se ha acostumbrado a saltar de estímulo en estímulo. La inteligencia artificial llega justo sobre ese terreno ya moldeado.

Para Shroff, no es raro afirmar que la inteligencia artificial va a modificar la forma en que la gente piensa. Matiza que no se trata solo de pereza. También es una adaptación lógica a herramientas que hacen más cómodo el procesamiento de información. Si un chatbot te ordena los datos, te sugiere argumentos y te devuelve un texto claro en segundos, tu cerebro se acostumbra rápido a ese atajo.

Los chatbots están diseñados, en gran medida, para aprovechar esa tendencia a la delegación cognitiva. Tú haces una pregunta, por muy compleja que sea, y la inteligencia artificial produce una respuesta convincente. No siempre correcta, claro, pero sí bien redactada y con un tono seguro. Ese tono es clave para que te resulte persuasiva, incluso cuando los datos patinan.

Las propias empresas reconocen que muchas respuestas de la inteligencia artificial pueden ser inexactas o directamente engañosas. Los usuarios suelen sentirse satisfechos. El psiquiatra de adicciones Carl Erik Fisher, de la Universidad de Columbia, resume esa paradoja con una idea sencilla: aunque el bot se equivoque, te distrae de la incomodidad emocional que tenías al empezar. Y eso ya es un refuerzo poderoso.

Riesgos de la dependencia a la inteligencia artificial y cómo la industria gana con ello

Hay una parte incómoda que no se puede ignorar. The Atlantic, medio donde escribe Shroff, firmó en 2024 una alianza corporativa con OpenAI. La revista recuerda este dato para marcar cierta distancia y asegura que no hay injerencia editorial en sus contenidos. Esa transparencia es clave cuando se habla de un tema en el que los intereses económicos son tan grandes.

Porque la dependencia a la inteligencia artificial no es solo un riesgo psicológico, también es un modelo de negocio. Shroff lo dice con claridad: cuanto más integras la IA en tu vida personal y profesional, más dinero ganan las empresas que te la ofrecen. Muchos usuarios intensivos pagan ya cientos de dólares mensuales en suscripciones premium para acceder a mejores versiones de estos servicios.

Las compañías que están detrás de los principales modelos, como OpenAI o Anthropic, viven bajo una presión financiera fuerte mientras intentan ampliar su base de clientes de pago. En octubre, Nick Turley, jefe de ChatGPT, habló internamente de “la mayor presión competitiva que hemos visto”. Y la ambición de OpenAI lo deja claro: aspiran a que unos 200 millones de personas acaben pagando por servicios premium en los próximos años.

El problema es que esa apuesta choca frontalmente con el discurso de moderar la dependencia. El propio Sam Altman, CEO de OpenAI, ha dicho que la gente depende demasiado de ChatGPT y que hay jóvenes que aseguran no poder tomar ninguna decisión vital sin “contárselo todo” al chatbot. Para Altman, que alguien no se sienta capaz de decidir sin la mediación constante de la inteligencia artificial está “realmente mal”.

OpenAI intenta cuadrar el círculo con cambios en el diseño de sus productos. La portavoz Taya Christianson explica que la compañía trabaja en funciones pensadas para desanimar el uso compulsivo. Entre ellas, un “modo estudio” que obliga al usuario a seguir los razonamientos paso a paso, en lugar de recibir una respuesta cerrada. La idea es que vayas a poder pensar junto a la IA, y no solo dejar que piense por ti.

Anthropic, desarrolladora de Claude, apunta en una dirección parecida. Asegura que está entrenando a su modelo para que sepa rechazar algunas peticiones cuando lo vea apropiado, pero sin sonar excesivamente severo o crítico con el usuario. Es decir, introducir una especie de freno suave que diga “esto no te conviene” o “no soy la herramienta adecuada para esto” sin romper la confianza que has construido con el sistema.

Shroff advierte que en todo este movimiento hay una contradicción de base. Por un lado, las empresas de inteligencia artificial hablan de límites sanos, modo estudio y rechazos responsables. Por otro, dependen de que uses esos mismos sistemas cada vez para más cosas, y durante más tiempo al día. Esa dependencia, aunque sea psicológicamente costosa, resulta rentable en ingresos recurrentes y fidelidad de usuario.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram