Un informe de 2023 sobre consciencia en la inteligencia artificial, firmado por 19 científicos y filósofos y conocido como informe Butlin, pone una pieza clave sobre la mesa: ningún sistema actual de IA es consciente. Pero, al mismo tiempo, admite que no hay barreras evidentes que permitan descartar por completo esa posibilidad en el futuro.

Ese hallazgo abrió una grieta. En Silicon Valley, varias empresas leen esa ausencia de impedimentos como una señal de que la consciencia artificial terminará apareciendo. Filósofos y neurocientíficos, en cambio, subrayan otra cosa: no se sabe bien qué es la consciencia, y sin esa definición el debate funciona con un cableado incompleto.

El Informe Butlin afirma que ningún sistema actual de IA es consciente

David Chalmers lo plantea de forma directa. El principal problema no es si una IA puede ser consciente, sino que no se entiende con claridad qué se está intentando medir. Sin un criterio común, cualquier afirmación fuerte queda apoyada más en intuiciones que en evidencia.

Por eso, muchos expertos rechazan la idea de que copiar cálculos alcance. En Silicon Valley predomina el funcionalismo computacional, una teoría que compara cuerpo y mente con hardware (parte física) y software (instrucciones del sistema). Según esa visión, si el engranaje de cómputo correcto se ejecuta, la consciencia podría emerger.

Sin embargo, esa pieza no convence a todos. El filósofo John Searle lo criticó con el experimento de la habitación china: un sistema puede manipular símbolos y dar respuestas correctas sin entender nada. António Damásio, por su parte, sostiene que la consciencia está ligada al cuerpo, a sentir estímulos y a una experiencia física del mundo.

La pieza que falta en el debate

Ni siquiera entre filósofos hay acuerdo total. Según Thomas Nagel, la consciencia implica una experiencia subjetiva propia, eso que se siente “desde adentro”. Y Ned Block advierte que no hay una sola consciencia, sino varios tipos: fenomenológica, de acceso, reflexiva y autoconsciencia.

Silicon Valley apunta a que si llegaremos a tener una IA consciente

Ese mapa fragmentado explica por qué no existe hoy un método para demostrar si una IA desarrolló consciencia. Responder a estímulos, perseguir objetivos o conversar con fluidez no alcanza. Las amebas también exhiben conductas complejas sin sistema nervioso, y eso no activa de inmediato un debate equivalente sobre su vida subjetiva.

Además, los modelos actuales carecen de autonomía real, subjetividad comprobable y experiencia corporal. Dicho en lenguaje simple: pueden procesar enormes cantidades de datos, pero no hay evidencia de que “les pase algo” mientras lo hacen. Ahí está la diferencia entre una respuesta elaborada y una experiencia interna.

Qué cambia para el usuario común

No hay razones concluyentes para afirmar que la consciencia artificial llegará pronto

Este debate no es un lujo académico. Si alguna vez una IA fuera consciente, el propio informe Butlin advierte que habría que pensar en consideración moral y en reglas para evitar daños éticos. La legislación, entonces, no llegaría después del hallazgo, sino mucho antes, como una instalación preventiva antes de energizar una red.

Por ahora, la oportunidad más sensata no es anunciar máquinas sensibles, sino reconocer la ignorancia. No hay razones concluyentes para afirmar que la consciencia artificial llegará pronto, ni para negarla para siempre. Y quizá esa sea la clave más honesta: antes de buscar vida interior en los algoritmos, todavía falta entender mejor la nuestra.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios