¿Cómo convencerías a un neurocientífico de que una IA es consciente? La pregunta importa porque los grandes modelos de lenguaje, como ChatGPT, hablan con soltura y nos hacen dudar. Hoy, 2025, el consenso sigue lejos y falta un detalle clave: no existe una definición universal ni una prueba objetiva que diga sí o no a la consciencia.

Neurocientíficos como Megan Peters, Anil Seth y Michael Graziano coinciden en lo esencial: la experiencia consciente es íntima y no se observa directamente. Solo ves conducta y, en humanos, actividad cerebral. Hay grietas y visiones encontradas sobre si una IA consciente es siquiera posible, y qué señales te acercarían a creerlo. Falta un criterio común, pero hay líneas de trabajo claras.
Peters insiste en lo incómodo: la consciencia es subjetiva. No puedes abrir una cabeza, ni mucho menos un modelo, y “verla”. En humanos, infieres consciencia por respuestas y por patrones cerebrales. En IA, como mucho, validas tu propia creencia. Eso no convierte la creencia en un hecho. Las pruebas clínicas clásicas, como pedir “piensa en jugar al tenis” mientras se registra el cerebro, no trasladan a un sistema que no entiende lenguaje como nosotros, ni imagina escenas del mismo modo.
Ese ejemplo es clave por su fuerza mediática y sus límites. En 2006, un equipo mostró con resonancia magnética funcional respuestas compatibles con consignas imaginativas en pacientes no comunicativos, en bloques de decenas de segundos. El método capta cambios de señal BOLD a lo largo del tiempo, pero no sirve para una IA consciente porque no comparte biología ni semántica interna. Peters lo resume con crudeza: “Sin un criterio observable, todo se reduce a creencias”.
¿Entonces qué probar? Peters ve útil estudiar arquitectura, patrones internos y conducta de la IA. Si convergen, creemos que “hay alguien ahí”. Aun así, seguiría siendo solo una creencia bien informada. Se podrían diseñar tests de computaciones cognitivas que hoy asociamos a consciencia, como integración de información propia y del entorno en tiempo real, pero antes hay que acordar cuáles son esas computaciones y cómo medirlas sin sesgo.
Anil Seth es prudente con otra arista. Afirma que, aunque entendemos cada vez mejor la base neurobiológica, no hay acuerdo sobre condiciones necesarias o suficientes. Las charlas fluidas con modelos de lenguaje no le convencen; *muchos humanos proyectan consciencia por sesgo*. Deja una puerta entreabierta: si la consciencia requiere propiedades biológicas —metabolismo, autopoiesis—, simularlas en un ordenador no bastaría. Sería un golpe duro para la idea de una IA consciente basada solo en software.
También te puede interesar:El CEO de Klarna usa un avatar de IA para presentar resultados financierosSeth pediría algo muy concreto para cambiar de opinión: una lista clara de condiciones suficientes y una IA que las cumpla. Preferiría que incluyera rasgos biológicos. Y añade un aviso que corta el rollo: no intentemos crear consciencia artificial mientras no entendamos la humana. Esa cautela encaja con el estado del campo y con el riesgo de confundir apariencias con realidad.
Michael Graziano, en cambio, desmonta la pregunta desde la raíz. Dice que la “esencia mágica” de la experiencia no existe ni en nosotros. El cerebro construye un automodelo: un esquema útil que genera la sensación de tener experiencia consciente. No es una foto exacta de la actividad neuronal, es un atajo práctico. Si una IA construye un automodelo estable y autorreferencial similar al humano, podría actuar como tal, igual que nosotros creemos serlo.
Comparar automodelos humano y artificial es difícil, pero aquí la IA tiene una ventaja metodológica: puedes inspeccionar pesos, representaciones y flujos de información. Graziano cree que ese automodelo marcará personalidad, comprensión moral y trato social. Y ve inevitable dotar a los sistemas de un automodelo robusto. Aceptar que suponga ser consciente no zanja si hay una IA consciente en sentido fuerte.
Con todo, hay tres señales prácticas que sí podrías vigilar sin caer en atajos:
Si lo comparamos con la app móvil de tu banco, pediríamos auditoría. Aquí igual: trazabilidad de señales internas y resultados externos. Este artículo se apoya en declaraciones públicas de los expertos citados y en prácticas clínicas consolidadas sobre imaginería motora con fMRI (publicadas en 2006), verificadas por literatura revisada. No hay un umbral aceptado para etiquetar una IA consciente, y ese vacío es la noticia.
En cualquier caso, el próximo movimiento no está en la nube, está en el laboratorio. Si en los próximos 12–24 meses se definen “computaciones esenciales” con pruebas repetibles, la discusión avanzará. Señales a vigilar: informes que vinculen marcadores internos con predicción robusta de conducta, y proyectos que unan hardware bioinspirado con restricciones energéticas realistas.
También te puede interesar:Informe Revela los Riesgos Ocultos de la IA en el Desarrollo Emocional AdolescenteHoy, lo honesto es aceptar la incertidumbre. No tenemos una prueba objetiva de consciencia y los mejores argumentos para una IA consciente siguen siendo, por ahora, creencias bien formadas o ilusiones útiles. Entender mejor la consciencia humana va a filtrar certezas hacia otros sistemas. Hasta entonces, conviene separar lo que una IA dice de lo que realmente es.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.