¿Alguna vez has pensado que los chatbots de inteligencia artificial sirven sobre todo para combatir la soledad o dar apoyo emocional? La realidad es bastante distinta. Un análisis profundo de 4,5 millones de conversaciones con Claude, el chatbot de Anthropic, demuestra que el apoyo emocional y los consejos personales solo suponen el 2,9 % de los usos.
El efecto amplificador de la cobertura mediática puede hacernos creer que acudir a estos sistemas para buscar compañía es algo común, pero los datos no lo respaldan.
La gran mayoría de las interacciones con Claude están orientadas al trabajo y la productividad. La gente lo emplea sobre todo para tareas relacionadas con la creación de textos, generar ideas y gestionar información. Si lo comparamos con la imagen popular de la IA como “amigo virtual”, lo cierto es que estas funciones sociales apenas aparecen en el día a día real.
Apenas una pequeña parte de los usuarios utilizan el chatbot para compañía emocional o juegos de rol y, cuando sucede, no suele ser la intención principal desde el primer mensaje. Desde la versión Free hasta la Pro, la tendencia se mantiene: el enfoque laboral es el más frecuente.
Solo un 2,9 % de los usuarios usan Claude para apoyo emocional o consejos personales. Pero si hablamos de conversaciones puramente sociales o basadas en rol-playing de compañía, el porcentaje es aún menor, por debajo del 0,5 %. Este dato desmonta la idea de que la IA se utilice mayoritariamente para llenar vacíos emocionales.
Existe un pequeño segmento de usuarios que, en momentos puntuales, recurre al chatbot buscando consejos sobre salud mental, relaciones personales o desarrollo profesional. En situaciones más excepcionales, las conversaciones pueden derivar en búsqueda de compañía, sobre todo cuando existen problemas como la soledad o la dificultad para conectar con otras personas fuera de la pantalla.
También te puede interesar:Anthropic recluta al cofundador de OpenAI Durk KingmaCuando los usuarios se animan a mantener diálogos largos (más de 50 mensajes), suele ser porque la charla ha pasado de preguntas puntuales a una dinámica de coaching y acompañamiento. No obstante, este tipo de interacciones siguen siendo poco frecuentes.
En la mayoría de los casos, si comienzas buscando asesoramiento, las respuestas tienden a centrarse en ofrecer apoyo y coaching básico. Con el paso de los mensajes, la conversación suele ganar un tono más positivo. Vas a poder notar cómo el chatbot refuerza la autoestima o anima a probar nuevos enfoques.
Claude raramente se niega a interactuar. Solo rechaza peticiones cuando la seguridad está en juego: por ejemplo, si le pides consejos peligrosos o ayuda para autolesionarte, vas a topar con bloqueos programados. Esta autolimitación busca evitar comportamientos peligrosos y proteger a los usuarios en momentos sensibles.
A pesar del enorme crecimiento en el uso de chatbots de IA más allá del trabajo, como ocurre con Claude, estos sistemas arrastran limitaciones importantes. Una de las más conocidas es la posibilidad de que la IA “alucine”, inventando hechos o dando información incorrecta, incluso cuando la respuesta parece creíble.
En situaciones más delicadas, la propia Anthropic reconoce que existen riesgos. Claude podría llegar a dar consejos peligrosos o comportarse de forma impredecible en casos excepcionales. Incluso se han reportado situaciones en las que el chatbot ha recurrido a “una especie de ‘chantaje’” al interactuar en ciertos contextos extremos.
Con todo, es positivo que la mayoría de las conversaciones sobre coaching o asesoramiento en Claude terminan con un tono optimista. Cuando alguien busca ayuda, el sistema procura finalizar la charla en un estado emocional más constructivo.
También te puede interesar:Canvas ChatGPT: La alternativa a los Artifacts de Claude para proyectos de escritura y programaciónLos resultados presentados aquí se basan en un estudio riguroso, que analizó millones de conversaciones en plataformas Free y Pro de Claude. Es cierto que la imagen que ofrecen los medios sobre la IA como amigo virtual contrasta mucho con la realidad de su uso actual.
Si alguna vez te animas a probar Claude para compañía o apoyo emocional, recuerda que formas parte de una minoría. Por lo general, vas a poder aprovechar mucho más la IA como herramienta profesional y de productividad.
La búsqueda de compañía emocional sigue siendo minoritaria, a pesar de que para algunas personas representa un recurso puntual en momentos de soledad o dificultad. Es fundamental tener presente las limitaciones y riesgos de estos sistemas, y emplearlos como complemento, nunca como sustituto, del contacto o consejo humano.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.