Un informe de 2023 sobre consciencia en la inteligencia artificial, firmado por 19 científicos y filósofos y conocido como informe Butlin, pone una pieza clave sobre la mesa: ningún sistema actual de IA es consciente. Pero, al mismo tiempo, admite que no hay barreras evidentes que permitan descartar por completo esa posibilidad en el futuro.
Ese hallazgo abrió una grieta. En Silicon Valley, varias empresas leen esa ausencia de impedimentos como una señal de que la consciencia artificial terminará apareciendo. Filósofos y neurocientíficos, en cambio, subrayan otra cosa: no se sabe bien qué es la consciencia, y sin esa definición el debate funciona con un cableado incompleto.

David Chalmers lo plantea de forma directa. El principal problema no es si una IA puede ser consciente, sino que no se entiende con claridad qué se está intentando medir. Sin un criterio común, cualquier afirmación fuerte queda apoyada más en intuiciones que en evidencia.
Por eso, muchos expertos rechazan la idea de que copiar cálculos alcance. En Silicon Valley predomina el funcionalismo computacional, una teoría que compara cuerpo y mente con hardware (parte física) y software (instrucciones del sistema). Según esa visión, si el engranaje de cómputo correcto se ejecuta, la consciencia podría emerger.
Sin embargo, esa pieza no convence a todos. El filósofo John Searle lo criticó con el experimento de la habitación china: un sistema puede manipular símbolos y dar respuestas correctas sin entender nada. António Damásio, por su parte, sostiene que la consciencia está ligada al cuerpo, a sentir estímulos y a una experiencia física del mundo.
La pieza que falta en el debate
Ni siquiera entre filósofos hay acuerdo total. Según Thomas Nagel, la consciencia implica una experiencia subjetiva propia, eso que se siente “desde adentro”. Y Ned Block advierte que no hay una sola consciencia, sino varios tipos: fenomenológica, de acceso, reflexiva y autoconsciencia.

Ese mapa fragmentado explica por qué no existe hoy un método para demostrar si una IA desarrolló consciencia. Responder a estímulos, perseguir objetivos o conversar con fluidez no alcanza. Las amebas también exhiben conductas complejas sin sistema nervioso, y eso no activa de inmediato un debate equivalente sobre su vida subjetiva.
Además, los modelos actuales carecen de autonomía real, subjetividad comprobable y experiencia corporal. Dicho en lenguaje simple: pueden procesar enormes cantidades de datos, pero no hay evidencia de que “les pase algo” mientras lo hacen. Ahí está la diferencia entre una respuesta elaborada y una experiencia interna.
Qué cambia para el usuario común

Este debate no es un lujo académico. Si alguna vez una IA fuera consciente, el propio informe Butlin advierte que habría que pensar en consideración moral y en reglas para evitar daños éticos. La legislación, entonces, no llegaría después del hallazgo, sino mucho antes, como una instalación preventiva antes de energizar una red.
Por ahora, la oportunidad más sensata no es anunciar máquinas sensibles, sino reconocer la ignorancia. No hay razones concluyentes para afirmar que la consciencia artificial llegará pronto, ni para negarla para siempre. Y quizá esa sea la clave más honesta: antes de buscar vida interior en los algoritmos, todavía falta entender mejor la nuestra.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.








