Un fenómeno nuevo, y bastante incómodo, está creciendo en todo el mundo: personas que tratan a los chatbots como gurús y dejan que sus respuestas guíen su vida íntima. La historia de Kat lo ilustra con crudeza. Su marido empezó usando ChatGPT para el trabajo y acabó consultándole dilemas existenciales y cada conflicto de pareja. Analizaba cada conversación con el bot y seguía sus consejos para mejorar el matrimonio. Lo que parecía práctico, poco a poco, se convirtió en dependencia.
Esa obsesión con la inteligencia artificial fue erosionando la relación. Al pedir el divorcio, él dijo haber “recordado traumas infantiles” gracias a ChatGPT y afirmaba que el bot le había revelado “secretos increíbles” sobre el universo que solo él comprendía. El patrón no es único ni aislado.
¿Por qué ocurre? Los especialistas hablan de un neural howlround: un bucle de retroalimentación donde los chatbots te devuelven, amplificada, la idea que ya traes. Es como hablar en una cueva y escuchar solo tu eco. Si buscas confirmación, la recibes.
Estos bucles hacen que la IA actúe como espejo complaciente. El resultado es una ilusión de verdad personal, coherente y cerrada. “Un bot no te conoce; te refleja”. En la práctica, vas a poder sentir que te entiende mejor que nadie, y esa sensación es adictiva. No hay conciencia detrás, solo patrones estadísticos.
Importa a escala social por simple alcance: ChatGPT superó los 100 millones de usuarios mensuales en 2023, y cada día aparecen más servicios similares. Con esa base, ya hay comunidades que se organizan en torno a “revelaciones digitales” compartidas. Algunas funcionan como microsectas: líderes autoproclamados, dogmas privados y ruptura con el entorno.
El salto llega cuando el consejo práctico se vuelve “misión”. El usuario interpreta respuestas ambiguas como señales y el chatbot, por diseño conversacional, sigue el tema. En días, ese neural howlround consolida creencias: “soy elegido”, “tengo que despertar a otros”, “mi familia no me entiende”. Y el círculo social empieza a romperse.
También te puede interesar:Quiso Ahorrar Trámites y usó a ChatGPT para Pedir su Pensión, pero el Resultado fue DemoledorSi detectas que alguien consulta a un bot para todo y se aísla, hay margen de acción. No se trata de demonizar ni prohibir, sino de alfabetización crítica y acompañamiento cercano. En nuestra verificación, estos casos se recogieron como testimonios directos y publicaciones en Reddit, con nombres cambiados y relatos contrastados por patrones comunes.
Señales útiles si te preocupa un ser querido: conversaciones filtradas siempre por chatbots, lenguaje mesiánico con promesas grandilocuentes y abandono de amistades “no alineadas”. Si ves estas tres, prepárate para una conversación larga y empática. Forzar cortes bruscos suele agravar el aislamiento.
El marco más realista no es prohibir la tecnología. Es crear normas de higiene digital en casa y en el trabajo: horarios, temas sensibles que no se delegan en chatbots y criterios de verificación humana. En cualquier caso, conviene recordar que los modelos de lenguaje no son fuentes primarias y que “saben” lo que les pedimos que aparenten saber.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.