¿Te pasó de pedirle algo a un chatbot y que responda con una seguridad casi humana, aunque esté inventando? Esa mezcla de asombro y desconfianza es, hoy, una experiencia doméstica. Y también es la puerta de entrada a una pregunta más grande: ¿qué está haciendo realmente la inteligencia artificial cuando “piensa”?
El hallazgo incómodo aparece en el nuevo libro de Sonia Contera, catedrática de Física en Oxford, que trabaja entre física, biología, nanotecnología y ciencia de la información. Su tesis es clara: la IA actual solo hace cálculos y correlaciones, no tiene capacidad de dominar nada. Y esa diferencia cambia cómo se entiende el riesgo.

Ahora bien, Contera no se queda en la tecnología. Sitúa la ciencia en su contexto histórico y geopolítico, y muestra cómo el conocimiento se entrelaza con el poder. Japón y China, recuerda, se modernizaron con revoluciones internas para no ser absorbidos por Occidente. La ciencia vuelve “muy vivo” al mundo, pero también lo vuelve más difícil de controlar.
En ese marco, la autora advierte que el enfoque heredado de la Ilustración —racional, digital y utilitario— no alcanza para responder preguntas centrales sobre la realidad y la existencia. Y subraya una pieza clave: quizá lo que se escapa al control de la razón sea, precisamente, el engranaje que falta para entender por qué estamos acá.
La clave para “traducir” a la IA está en imaginar una casa. Un modelo como ChatGPT funciona como un tablero eléctrico con miles de interruptores: al apretar uno, se encienden ciertas luces por probabilidad, no por comprensión. Eso es el machine learning (aprendizaje automático, detectar patrones): un cableado estadístico que conecta señales, pero no sabe por qué una habitación importa más que otra.
Por eso las “alucinaciones” no son un capricho. Son el síntoma de un mecanismo que no tiene brújula ética. Puede escribir algo falso con tono convincente porque su objetivo es encadenar la respuesta más probable, no verificar la realidad. Según Contera, una inteligencia real implicaría identidad individual, y con ella consecuencias éticas. Ese umbral, dice, todavía está lejos.
También te puede interesar:El CEO de Klarna usa un avatar de IA para presentar resultados financieros
Además, Contera recuerda un detalle revelador: estos modelos mejoraron su lenguaje cuando se introdujo “ruido”, un desorden controlado que los aleja de una lógica puramente rígida. Es como si al tablero eléctrico se le permitiera una vibración: no “entiende” más, pero se vuelve más flexible para completar frases. El precio es que también se vuelve más fácil que encienda luces donde no hay habitación.
La evidencia del problema no está solo en el chat de tu teléfono. Contera pone el foco en usos militares como drones autónomos en conflictos como Ucrania o Gaza. Ahí, el peligro no es que “dominen” por voluntad propia, sino que avancen en direcciones incontrolables sin saber cuándo actúan bien o mal. Un sistema sin ética puede ejecutar acciones eficaces y, al mismo tiempo, profundamente incorrectas.
También aparece la tensión geopolítica: en California se persigue la IAG, la Inteligencia Artificial General (una máquina con capacidades amplias, tipo “mente”), mientras que China prioriza una IA práctica para robotizar fábricas. Son dos estrategias y dos límites imaginados para la computación. Ninguna es neutral.
Contera, además, mira con cautela el discurso apocalíptico de figuras como Geoffrey Hinton y sugiere que a veces se mezcla con agendas políticas o empresariales. Incluso menciona a Elon Musk como ejemplo de exageración del peligro cuando va por detrás y necesita ganar tiempo competitivo.
En paralelo, la autora propone una comparación que baja la discusión a tierra: el cerebro humano consume unos 20 vatios, como una bombilla. En cambio, infraestructuras que procesan datos a escala masiva pueden requerir energía de nivel “central”. Y mientras un niño aprende a leer con una cartilla de unas 20 páginas, una IA necesita cantidades gigantescas de datos, como “todos los libros del mundo”, para una tarea parecida.
Ese contraste, para Contera, sugiere que la biología usa mecanismos distintos. La vida opera en la escala del nanómetro, en moléculas como el ADN, un puente entre el mundo cuántico y la física clásica. Y la biología reduce entropía (desorden) para generar orden de una forma que la física todavía no explica del todo.
También te puede interesar:Informe Revela los Riesgos Ocultos de la IA en el Desarrollo Emocional AdolescenteLa oportunidad, entonces, no es “creer” o “temer” a la IA como si fuera una persona. Es entender su cableado real para regularla mejor, usarla con criterio y no confundir correlación con juicio. Como en una casa: un tablero eléctrico puede ser potente, pero sin planos y sin reglas, cualquier chispa termina siendo un incendio.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.