Una entrevista reciente entre Tucker Carlson y Sam Altman, el rostro de OpenAI, ha reabierto una pregunta que no cabe solo en laboratorios: ¿puede la inteligencia artificial acercarnos a una respuesta sobre el mayor misterio que conocemos?
Altman contó, sin rodeos, que no tiene una respuesta clara sobre la existencia de Dios y que siente “algo más grande” que la física no alcanza a explicar. Dejó un límite firme: no ve nada divino en la tecnología. Para él, lo que ves en la inteligencia artificial es ingeniería, estadística y cómputo, no un alma escondida.
Ese matiz se vuelve relevante cuando parte de la gente mira a ChatGPT como un oráculo con “chispa de vida”. Altman desmontó esa idea y reconoció otra cosa: el sistema refleja una estructura moral que surge de la media de los valores humanos presentes en sus datos. Si el modelo está bien entrenado, vas a poder encontrar respuestas que encajan con tu ética y otras que chocan.
El debate, con todo, ya trasciende la pantalla. La llegada de la inteligencia artificial está forzando preguntas sobre empleo, sobre el modelo social que queremos adoptar y sobre dilemas religiosos que vuelven una y otra vez. En foros de tecnología avanzada, algunos futuristas se preguntan incluso si estas máquinas podrían ayudarnos a saber si estamos, o no, bajo el control de Dios.
En la conversación con Carlson, Altman fue explícito: siente que hay una capa que se nos escapa, pero mantiene el marco técnico. “Siento que hay algo más grande que no explica la física”, resumió. Esa tensión entre intuición personal y análisis frío explica por qué la inteligencia artificial se ve, a la vez, como herramienta y como espejo de nuestra moral compartida.
Añadió un ángulo cultural que puedes notar a simple vista. Dijo que la adopción masiva de la inteligencia artificial ya modifica cómo hablamos: muchos usuarios imitan la cadencia, los giros y la puntuación de ChatGPT. No todo es estilo. También alertó de un riesgo tangible: los modelos avanzados pueden usarse para crear armas biológicas si caen en malas manos.
También te puede interesar:Los nuevos modelos de OpenAI podrían costar hasta $2000Sobre desinformación, el diagnóstico fue claro. Nos dirigimos hacia un mundo de deepfakes permanentes, y tú vas a tener que verificar la autenticidad antes de fiarte. Altman propuso dos ideas prácticas: firmas criptográficas en mensajes políticos y un “código de crisis” en familia para confirmar identidades en situaciones sensibles. Rechazó exigir verificación biométrica para usar ChatGPT.
Todo esto encaja con una discusión más amplia que ya conoces: qué trabajos cambiarán, qué modelo social queremos y qué hacemos con los dilemas morales. Las filosofías futuristas llevan años preguntando si la inteligencia artificial podría darnos pistas sobre una realidad superior. Por ahora, Altman no ve pruebas, y deja esa puerta entreabierta, pero vigilada desde la técnica.
En los próximos meses, mira tres cosas: si gobiernos adoptan firmas criptográficas en procesos oficiales, si las plataformas bloquean deepfakes flagrantes con rapidez, y si tú percibes menos estafas en tu bandeja. Si aparecen exigencias de biometría obligatoria para entrar en el servicio web, prepárate para un choque entre privacidad y seguridad que afectará a cómo usas la inteligencia artificial a diario.
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.