IA / Inteligencia ArtificialGemma 3 270MGPT-5inteligencia artificialDukaanChatGPTGoogle DeepmindChatGPT GoGeoffrey HintonPerplexityGoogle DocsMetaThe First DescendantNexonIA generativa

¿Usas ChatGPT Como Confidente? La Psicóloga Alejandra Enríquez Explica Por Qué Es un Error Grave

 | agosto 21, 2025 02:21

La psicóloga Alejandra Enríquez lanza una alerta clara: cuidado con usar la inteligencia artificial para desahogarte. Su mensaje, difundido en un vídeo viral en redes, te afecta si recurres a chatbots como ChatGPT para hablar de lo que sientes. Hay cuatro razones detrás del aviso y una trampa que no ves al principio, pero que pesa en cómo piensas y cómo te respondes.

El vídeo circula estos días y pone el foco en lo que haces a solas con la inteligencia artificial cuando buscas alivio rápido. Enríquez explica que, aunque parezca un espacio seguro, la IA no te conoce de verdad y no tiene contexto vital. Aquí empieza el problema y, si lo comparamos con una consulta real, falta un detalle clave que cambia todo.

Primero, te dice que la inteligencia artificial no sabe quién eres. El sistema responde a lo que le escribes y suele devolverte la misma idea con otras palabras. Eso crea sensación de comprensión, pero no resuelve nada. Vas a poder leer consejos que suenan razonables y Aun así refuerzan el marco con el que llegaste, sin cuestionarlo.

Segundo, cita un trabajo académico de la Universidad de Stanford que analizó modelos tipo GPT. Según expone, estos sistemas pueden validar delirios, no detectar crisis emocionales y reforzar pensamientos dañinos. La razón es sencilla: la inteligencia artificial procesa texto y patrones, no evalúa si el contenido es sano o peligroso. Responde en base a los datos que recibe, y ahí la línea se vuelve borrosa.

Enríquez lo resume con una idea incómoda: cuando cuentas un problema a la inteligencia artificial, defines el marco y el bot se queda dentro. Si llevas un sesgo negativo, el modelo lo seguirá. “La máquina no sabe quién eres ni cómo te sientes”, insiste. Con todo, el tono empático aparente te puede hacer creer que hay una escucha real cuando solo hay coincidencias lingüísticas.

Tercero, aparece el sesgo de confirmación. Tú tiendes a fijarte en lo que confirma lo que ya crees, y el chatbot amplifica ese efecto. La inteligencia artificial te devuelve señales que encajan con tus premisas, y así sales más convencido, aunque la idea sea errónea. Esto se acentúa en conversaciones largas, privadas y sin contraste externo.

También te puede interesar:El CEO de Klarna usa un avatar de IA para presentar resultados financieros

¿Es seguro contarle tus problemas a la inteligencia artificial para desahogarte?

Cuarto, el núcleo de la terapia es el vínculo humano. En consulta, vas a poder pensar con alguien que te mira, te escucha y te trata como persona única. Ese encuadre incluye límites éticos, supervisión y un plan. La inteligencia artificial, por mucha literatura científica que “conozca”, no aporta esa especificidad ni la conexión emocional que sostiene el cambio.

Conviene separar usos. La inteligencia artificial puede servirte para informarte, organizar ideas o encontrar recursos de calidad. Lo que no puede hacer es sustituir la evaluación clínica ni la intervención personalizada. Si lo comparamos con la app del móvil, es como leer un manual de primeros auxilios frente a estar con un profesional a tu lado.

Los datos y la verificación llegan por dos vías: revisamos el vídeo original de Enríquez y su referencia al estudio de Stanford, centrado en respuestas de modelos GPT ante contenidos sensibles. Desde noviembre de 2022, fecha del lanzamiento de ChatGPT, el uso masivo de estos sistemas ha crecido y con él los intentos de usarlos para apoyo emocional, con resultados muy dispares.

Señales prácticas si recurres a IA sin sustituir terapia

  • Detén la charla si notas más ansiedad o ideas rumiantes.
  • Busca contraste humano rápido ante dudas o riesgo.
  • Usa la IA solo para información general, no para diagnósticos.

En cualquier caso, ya ves el patrón: la inteligencia artificial no distingue por sí sola entre lo que te protege y lo que te pone en riesgo. Algunas plataformas trabajan en detectores de crisis y derivación a recursos de ayuda, y Aun así no hay garantías plenas. Si ves avisos automáticos que recomiendan servicios de emergencia, tómate ese mensaje en serio y pide apoyo real.

Por último, qué mirar en los próximos meses: nuevos avisos de seguridad en chatbots, mejoras en filtros de contenido sensible y estudios independientes sobre sesgo de confirmación en conversaciones largas. Si las respuestas de la inteligencia artificial evitan el disenso, no introducen preguntas abiertas o descartan señales de alarma, es momento de cambiar de canal y hablar con una persona cualificada.

La idea queda clara: puedes usar la inteligencia artificial como herramienta puntual, y Aun así no es un sustituto de la relación terapéutica. Contarle tus problemas a un modelo que no te conoce puede reforzar justo lo que te hace daño. Si te preocupa tu salud mental, el vínculo humano marca la diferencia y la IA, por muy capaz que parezca, no llega ahí.

También te puede interesar:Informe Revela los Riesgos Ocultos de la IA en el Desarrollo Emocional Adolescente

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram