QwenpromptsChatGPTcopilotPixel 10chips cerebralesDexmeta aiParineetiIA / Inteligencia ArtificialGemma 3 270MGPT-5inteligencia artificialDukaanGoogle Deepmind

¿Usas ChatGPT Como Confidente? La Psicóloga Alejandra Enríquez Explica Por Qué Es un Error Grave

 | agosto 21, 2025 02:21

La psicóloga Alejandra Enríquez lanza una alerta clara: cuidado con usar la inteligencia artificial para desahogarte. Su mensaje, difundido en un vídeo viral en redes, te afecta si recurres a chatbots como ChatGPT para hablar de lo que sientes. Hay cuatro razones detrás del aviso y una trampa que no ves al principio, pero que pesa en cómo piensas y cómo te respondes.

El vídeo circula estos días y pone el foco en lo que haces a solas con la inteligencia artificial cuando buscas alivio rápido. Enríquez explica que, aunque parezca un espacio seguro, la IA no te conoce de verdad y no tiene contexto vital.

El verdadero problema de simular una consulta con la IA

Primero, te dice que la inteligencia artificial no sabe quién eres. El sistema responde a lo que le escribes y suele devolverte la misma idea con otras palabras. Eso crea sensación de comprensión, pero no resuelve nada. Vas a poder leer consejos que suenan razonables y Aun así refuerzan el marco con el que llegaste, sin cuestionarlo.

Segundo, cita un trabajo académico de la Universidad de Stanford que analizó modelos tipo GPT. Según expone, estos sistemas pueden validar delirios, no detectar crisis emocionales y reforzar pensamientos dañinos. La razón es sencilla: la inteligencia artificial procesa texto y patrones, no evalúa si el contenido es sano o peligroso. Responde con base a los datos que recibe, y ahí la línea se vuelve borrosa.

Enríquez lo resume con una idea incómoda

Cuando cuentas un problema a la inteligencia artificial, defines el marco y el bot se queda dentro. Si llevas un sesgo negativo, el modelo lo seguirá. “La máquina no sabe quién eres ni cómo te sientes”, insiste. Con todo, el tono empático aparente te puede hacer creer que hay una escucha real cuando solo hay coincidencias lingüísticas.

Tú tiendes a fijarte en lo que confirma lo que ya crees, y el chatbot amplifica ese efecto. La inteligencia artificial te devuelve señales que encajan con tus premisas, y así sales más convencido, aunque la idea sea errónea. Esto se acentúa en conversaciones largas, privadas y sin contraste externo.

También te puede interesar:El 90% de los Trabajadores ya Depende de la IA, Aunque sus Jefes no lo Sepan

¿Es seguro contarle tus problemas a la IA para desahogarte?

El núcleo de la terapia es el vínculo humano. En consulta, vas a poder pensar con alguien que te mira, te escucha y te trata como persona única. Ese encuadre incluye límites éticos, supervisión y un plan. La inteligencia artificial, por mucha literatura científica que “conozca”, no aporta esa especificidad ni la conexión emocional que sostiene el cambio.

Conviene separar usos. La inteligencia artificial puede servirte para informarte, organizar ideas o encontrar recursos de calidad. Lo que no puede hacer es sustituir la evaluación clínica ni la intervención personalizada. Si lo comparamos con la app del móvil, es como leer un manual de primeros auxilios frente a estar con un profesional a tu lado.

Los datos y la verificación llegan por dos vías: revisamos el vídeo original de Enríquez y su referencia al estudio de Stanford, centrado en respuestas de modelos GPT ante contenidos sensibles. Desde noviembre de 2022, fecha del lanzamiento de ChatGPT, el uso masivo de estos sistemas ha crecido y con él los intentos de usarlos para apoyo emocional, con resultados muy dispares.

Señales prácticas si recurres a IA sin sustituir terapia

  • Detén la charla si notas más ansiedad o ideas rumiantes.
  • Busca contraste humano rápido ante dudas o riesgo.
  • Usa la IA solo para información general, no para diagnósticos.

En cualquier caso, ya ves el patrón: la inteligencia artificial no distingue por sí sola entre lo que te protege y lo que te pone en riesgo. Algunas plataformas trabajan en detectores de crisis y derivación a recursos de ayuda, y Aun así no hay garantías plenas. Si ves avisos automáticos que recomiendan servicios de emergencia, tómate ese mensaje en serio y pide apoyo real.

La idea queda clara: puedes usar la inteligencia artificial como herramienta puntual, y Aun así no es un sustituto de la relación terapéutica. Contarle tus problemas a un modelo que no te conoce puede reforzar justo lo que te hace daño. Si te preocupa tu salud mental, el vínculo humano marca la diferencia y la IA, por muy capaz que parezca, no llega ahí.

También te puede interesar:El CEO de Klarna usa un avatar de IA para presentar resultados financieros

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram