OpenAIGPT-5Lens LiveAmazonMistral AIIA / Inteligencia ArtificialClaude CodeChatGPTAgentes IAGrok Code Fast 1Alibaba GroupBPOStein-Erik SoelbergLovableSam Altman

“Dos Hostias y el Móvil Fuera”: la Dura Advertencia de Jon Hernández Sobre la IA como Psicólogo

 | septiembre 2, 2025 21:06

Jon Hernández, divulgador de Inteligencia Artificial muy seguido en redes, lanzó una advertencia clara en el podcast Roca Project: cuidado con usar chatbots como “terapeutas cuando hay problemas reales. Importa porque cada vez más gente abre ChatGPT en momentos delicados y, aunque la conversación suene cercana, falta un detalle que condiciona todo. Falta responsabilidad real.

En esa entrevista, Hernández fue directo con un punto: si tienes ansiedad, depresión o duelo, usar un bot como si fuera un psicólogo te pone en riesgo. Habló de herramientas como ChatGPT, disponibles 24/7 y con respuestas en segundos, pero planteó un límite que no puedes ignorar si te juegas tu estabilidad.

Según su análisis, los modelos actuales no están diseñados ni entrenados para dar soporte clínico profesional. Lo que hoy tenemos no es una consulta, es una simulación de conversación sin garantías de seguridad ni seguimiento. Aquí está la trampa: cuando algo sale mal, ¿quién asume la responsabilidad? Nadie te va a acompañar luego a una revisión o a una urgencia.

Hernández reconoce por qué engancha: cuando hablas con un modelo grande de lenguaje, tu cerebro procesa esa voz como “humana”. Psicológicamente, es parecido a conversar por teléfono con alguien real. Ese parecido puede calmar a algunas personas a corto plazo y ofrecer compañía inmediata. Esa cercanía percibida no convierte a la IA en un tratamiento.

¿Es segura la IA para salud mental en 2025? Señales y límites que debes tener claros

¿Hay futuro para la IA para salud mental? Hernández no lo descarta. De hecho, abre una puerta interesante: soluciones específicas y con control profesional de verdad. Imagina una “Psychologist AI” auditada, con protocolos, métricas de seguridad y psicólogos que revisan, intervienen y corrigen. Si algún día esa app existe, será porque un equipo clínico la supervisa y la respalda con evidencia.

¿Qué puedes hacer mientras tanto? Si recurres a un bot para desahogarte, úsalo como apoyo puntual y solo para información general. Si notas señales de alarma, toca otra vía rápido. Tres pistas prácticas:

También te puede interesar:La Evolución de la IA en Medicina: ChatGPT Y Curación de Enfermedades para el 2035
  • Busca ayuda profesional si sientes riesgo, ideación o bloqueo intenso.
  • Evita que un chatbot marque cambios de medicación o rutinas críticas.
  • Comparte con tu terapeuta cualquier uso de apps o chatbots.

Hernández admite que la inmediatez ayuda cuando te sientes solo, y que a algunas personas les aporta un alivio breve. Con todo, insiste en el límite que no debes cruzar: la IA nunca debe sustituir a un profesional de salud mental. Si ves en los próximos meses anuncios de pilotos con hospitales, auditorías independientes o guías de colegios profesionales, ahí tendrás señales de progreso real.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram