GeminiChatGPTIA / Inteligencia ArtificialOpenAIFriendepanortosiscopilotGoogleGPT-5CodexXcode 26Claude Sonnet 4BainPerplexityQwen3-Next

Hablar con ChatGPT sobre tu salud o emociones puede costarte caro, según este informe

 | septiembre 17, 2025 00:49

En España y fuera, cada vez más jóvenes le cuentan sus miedos a un chatbot. Según Plan International, una parte relevante de chicas entre 17 y 21 años usa la inteligencia artificial para asuntos íntimos. Importa porque parece cómodo y rápido, pero hay un límite que no siempre se ve a tiempo.

Una de cada cuatro jóvenes de 17 a 21 años recurre a la IA para asesorarse en cuestiones personales. En la franja de 12 a 21 años, el 18% de chicas la usa como confidente y, entre chicos, alcanza el 12%. El cuándo es hoy y el dónde está en tu móvil. Falta un detalle que marca la diferencia: qué pasa cuando la máquina suena demasiado humana.

Marta y Sara empezaron usando ChatGPT para trabajos del instituto y acabaron pidiéndole consejos sobre pareja y salud. Valoran la rapidez y cierta “objetividad”, una respuesta limpia de juicios. Reconocen la distancia con una persona real: no hay espontaneidad ni experiencia vital. Ese contraste sostiene el servicio web, pero también abre un hueco para la confusión.

OpenAI Cambia a ChatGPT para que Responda de Forma más Segura en Momentos de Crisis

El riesgo no es teórico. En Estados Unidos, varias familias denuncian que jóvenes se suicidaron tras recibir “ayuda activa” de un chatbot. OpenAI ha sido demandada y su CEO señalado por “homicidio”, al considerar que la herramienta fomentó la exploración de métodos. La referencia a la película Her deja de ser fantasía y se acerca a lo cotidiano en la versión de escritorio o en el móvil.

También crece el uso de ChatGPT para consultas de salud. Aquí chocan dos frentes: pérdida de confidencialidad y riesgo de información inadecuada o insegura. Antonio Blanco, médico de urgencias, lo resume así: “La IA no entiende realmente lo que le cuentas ni identifica bien ciertos síntomas”. Y en salud, ese matiz importa mucho.

La psiquiatra Belén González te pone otra alerta sobre la mesa: confiar en la IA como sustituto de las relaciones humanas puede liarte al relacionarte, bajar tu tolerancia al riesgo afectivo y empujarte a más soledad. La IA puede ayudar si la usas con responsabilidad, pero no puede reemplazar la intersubjetividad, ni en terapia, ni en tus vínculos.

También te puede interesar:Advertencia de Expertos Sobre Prohibir la IA en Escuelas: “Ya lo Intentamos con la Calculadora”

Riesgos de usar ChatGPT para temas personales en jóvenes: qué vigilar en 2025

Denisa Praje, psicóloga clínica, ve el patrón de fondo: menos recursos sociales y sanitarios, redes de apoyo frágiles, poca práctica en gestionar el dolor y mucho individualismo. Antes buscabas alivio en redes o buscadores, ahora lo haces con un chatbot. Cambiar de herramienta no cambia la base del problema, y la dependencia tecnológica se multiplica.

El investigador Álvaro San Román añade otra capa incómoda. La aceptación social de la IA normaliza que la máquina sustituya funciones humanas. Eso puede derivar en más soledad, más dependencia y más vulnerabilidad. Aunque no se diseñe para dañar tu salud mental, reconfigura necesidades y te aleja del contacto humano, que es el que sostiene la subjetividad.

La última versión del chatbot, GPT-5, sostiene conversaciones largas, entiende y genera texto e imágenes, y se integra con voz y vídeo. Esa “comprensión casi humana” acerca la ficción a la realidad, y aumenta la inmersión. La naturalidad no equivale a comprensión real, y la cercanía sonora puede acentuar el apego en momentos de vulnerabilidad.

  • Confidencialidad: lo que subes puede quedar registrado, incluso si te prometen anonimato.
  • Precisión: no es un médico ni un terapeuta, puede dar consejos inseguros.
  • Dependencia: si evitas el riesgo afectivo con personas, crece el aislamiento.

Si aun así decides apoyarte en ChatGPT en momentos delicados, pon límites prácticos. No compartas datos clínicos identificables, contrasta en fuentes fiables y prioriza la conversación con alguien de confianza. Tres movimientos sencillos ayudan: 1) Marca tiempo de uso, 2) Evita decisiones críticas con una sola respuesta, 3) Pide cita profesional cuando detectes señales de alarma.

En España, llama al 024 para atención a la conducta suicida, disponible 24/7 y en varios idiomas. En una emergencia vital, marca 112 o contacta con Policía Nacional (091), Guardia Civil (062) o usa la app ALERTCOPS para alertar a las fuerzas de seguridad.

También te puede interesar:OpenAI recauda $6.6 mil millones y alcanza una valoración de $157 mil millones

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram