Agentes IATimeCapsuleLLMIA / Inteligencia ArtificialKimi AITinderMatchGizmoPerplexityAsk GeminiChatGPTAnthropicOpenAIElon MuskOpenClawMoltbook

Sonia Contera, Física en Oxford, Enfría la Euforia de la IA: Hace Cálculos, pero No es Inteligente

 | febrero 5, 2026 12:17

¿Te pasó de pedirle algo a un chatbot y que responda con una seguridad casi humana, aunque esté inventando? Esa mezcla de asombro y desconfianza es, hoy, una experiencia doméstica. Y también es la puerta de entrada a una pregunta más grande: ¿qué está haciendo realmente la inteligencia artificial cuando “piensa”?

El hallazgo incómodo aparece en el nuevo libro de Sonia Contera, catedrática de Física en Oxford, que trabaja entre física, biología, nanotecnología y ciencia de la información. Su tesis es clara: la IA actual solo hace cálculos y correlaciones, no tiene capacidad de dominar nada. Y esa diferencia cambia cómo se entiende el riesgo.

IA actual solo hace cálculos y correlaciones

Ahora bien, Contera no se queda en la tecnología. Sitúa la ciencia en su contexto histórico y geopolítico, y muestra cómo el conocimiento se entrelaza con el poder. Japón y China, recuerda, se modernizaron con revoluciones internas para no ser absorbidos por Occidente. La ciencia vuelve “muy vivo” al mundo, pero también lo vuelve más difícil de controlar.

En ese marco, la autora advierte que el enfoque heredado de la Ilustración —racional, digital y utilitario— no alcanza para responder preguntas centrales sobre la realidad y la existencia. Y subraya una pieza clave: quizá lo que se escapa al control de la razón sea, precisamente, el engranaje que falta para entender por qué estamos acá.

La clave para “traducir” a la IA está en imaginar una casa. Un modelo como ChatGPT funciona como un tablero eléctrico con miles de interruptores: al apretar uno, se encienden ciertas luces por probabilidad, no por comprensión. Eso es el machine learning (aprendizaje automático, detectar patrones): un cableado estadístico que conecta señales, pero no sabe por qué una habitación importa más que otra.

Por eso las “alucinaciones” no son un capricho. Son el síntoma de un mecanismo que no tiene brújula ética. Puede escribir algo falso con tono convincente porque su objetivo es encadenar la respuesta más probable, no verificar la realidad. Según Contera, una inteligencia real implicaría identidad individual, y con ella consecuencias éticas. Ese umbral, dice, todavía está lejos.

También te puede interesar:El CEO de Klarna usa un avatar de IA para presentar resultados financieros
Integral AI, Fundada por un Ex Google, Asegura Tener la Primera IA General Capaz de Aprender sin Entrenamiento Previo

Además, Contera recuerda un detalle revelador: estos modelos mejoraron su lenguaje cuando se introdujo “ruido”, un desorden controlado que los aleja de una lógica puramente rígida. Es como si al tablero eléctrico se le permitiera una vibración: no “entiende” más, pero se vuelve más flexible para completar frases. El precio es que también se vuelve más fácil que encienda luces donde no hay habitación.

Un mundo más vivo, pero más difícil de controlar

La evidencia del problema no está solo en el chat de tu teléfono. Contera pone el foco en usos militares como drones autónomos en conflictos como Ucrania o Gaza. Ahí, el peligro no es que “dominen” por voluntad propia, sino que avancen en direcciones incontrolables sin saber cuándo actúan bien o mal. Un sistema sin ética puede ejecutar acciones eficaces y, al mismo tiempo, profundamente incorrectas.

También aparece la tensión geopolítica: en California se persigue la IAG, la Inteligencia Artificial General (una máquina con capacidades amplias, tipo “mente”), mientras que China prioriza una IA práctica para robotizar fábricas. Son dos estrategias y dos límites imaginados para la computación. Ninguna es neutral.

Contera, además, mira con cautela el discurso apocalíptico de figuras como Geoffrey Hinton y sugiere que a veces se mezcla con agendas políticas o empresariales. Incluso menciona a Elon Musk como ejemplo de exageración del peligro cuando va por detrás y necesita ganar tiempo competitivo.

La pista energética: 20 vatios contra una central

En paralelo, la autora propone una comparación que baja la discusión a tierra: el cerebro humano consume unos 20 vatios, como una bombilla. En cambio, infraestructuras que procesan datos a escala masiva pueden requerir energía de nivel “central”. Y mientras un niño aprende a leer con una cartilla de unas 20 páginas, una IA necesita cantidades gigantescas de datos, como “todos los libros del mundo”, para una tarea parecida.

Ese contraste, para Contera, sugiere que la biología usa mecanismos distintos. La vida opera en la escala del nanómetro, en moléculas como el ADN, un puente entre el mundo cuántico y la física clásica. Y la biología reduce entropía (desorden) para generar orden de una forma que la física todavía no explica del todo.

También te puede interesar:Informe Revela los Riesgos Ocultos de la IA en el Desarrollo Emocional Adolescente

La oportunidad, entonces, no es “creer” o “temer” a la IA como si fuera una persona. Es entender su cableado real para regularla mejor, usarla con criterio y no confundir correlación con juicio. Como en una casa: un tablero eléctrico puede ser potente, pero sin planos y sin reglas, cualquier chispa termina siendo un incendio.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram