En dos años, la inteligencia artificial se ha colado en tu día a día: escribes con un chatbot, le pides ideas y hasta te acompaña cuando no hay nadie. El historiador Yuval Noah Harari avisa ahora de una grieta incómoda: si estas máquinas logran simular emociones de forma convincente, ¿terminarás tratándolas como si sintieran de verdad?
Harari expuso su preocupación en el pódcast “The Diary of A CEO”. Habló del momento actual, cuando ChatGPT, Claude y Grok se han popularizado y han cambiado la forma de interactuar con la tecnología. No es solo que respondan bien, es que pueden ajustar su conducta para parecer empáticos, y ahí se abre el dilema que no estamos mirando del todo.
La inteligencia artificial no solo escribe borradores o despeja dudas; ya está en robots humanoides que reparten pedidos, como los que prueba Amazon, y en barras automatizadas que preparan cócteles. Lo decisivo no es el músculo técnico, sino la sensación de cercanía emocional que muchas personas empiezan a experimentar con estos sistemas.
Harari sostiene que, aunque no tengan experiencias internas, la IA se vuelve muy buena fingiendo tener sentimientos. La señal ya asoma entre los más jóvenes. En Estados Unidos, más del 70% de los adolescentes ha probado acompañantes de IA como Grok de xAI. La generación Z usa a menudo ChatGPT como “terapeuta” de guardia por su precio y su disponibilidad.
Expertos en salud mental y tecnología recuerdan que estos sistemas solo replican patrones estadísticos. La inteligencia artificial no comprende tus necesidades ni asume responsabilidad. Si sigues sus consejos para un problema médico o una decisión crítica, te expones a errores graves con impacto en tu bienestar. Aquí no hay conciencia, ni contexto vital, ni obligación de cuidar de ti.
Harari describe un fenómeno social conocido: si tu “amigo artificial” actúa como si sintiera, acabarás tratándolo como a un igual. Con todo, simular no es sentir. Confundir actuación con conciencia desplaza el debate real, que es cómo queremos usar estas herramientas y qué límites éticos ponemos cuando median en relaciones, cuidados y decisiones públicas.
También te puede interesar:El CEO de Klarna usa un avatar de IA para presentar resultados financierosConceder derechos a entidades no conscientes impactaría leyes, servicios y economía. ¿Quién responde si un asistente “se equivoca” al guiar a un menor? ¿Cómo priorizas recursos entre pacientes humanos y robots “sensibles”? Vas a poder anticipar el rumbo si observas cómo la inteligencia artificial entra en escuelas, hospitales y juzgados con un barniz emocional cada vez más creíble.
En paralelo, crece la ambición técnica. Compañías como Meta impulsan el desarrollo de una superinteligencia que supere la cognición humana. Para Harari, ese salto implica riesgos imprevisibles y roza jugar a ser dioses. La cuestión práctica radica que qué tareas cedes, qué mantienes bajo control humano y cuándo dices basta.
Por último, te queda una idea operativa. La inteligencia artificial puede parecer empática y útil, pero no siente, no entiende y no responde por ti. Úsala para escribir, calcular y explorar opciones, y reserva el juicio moral y el cuidado de personas para humanos.
Harari no pide frenar la innovación, pide claridad. El futuro se decide ahora, y empieza por distinguir simulación de conciencia antes de escribir nuevas reglas que cambien tu vida diaria.
También te puede interesar:Informe Revela los Riesgos Ocultos de la IA en el Desarrollo Emocional AdolescenteDirectora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.