¿Alguna vez te preguntaste quién debería tener la llave del “cuarto de máquinas” cuando una tecnología promete ser más potente que cualquier otra? No es una duda futurista. Es la misma sensación que aparece cuando uno piensa en quién controla el tablero eléctrico de una ciudad.
Sin embargo, un paper que circula en el debate de inteligencia artificial sostiene un hallazgo incómodo: la superinteligencia (IA que supera ampliamente a la humana) podría convertirse en el arma más poderosa jamás creada. Y, por eso, no debería quedar librada a la lógica privada sin una capa de control público.

Por su parte, el texto plantea una pregunta que funciona como alarma doméstica: si no sería aceptable que figuras como Elon Musk o Sam Altman tuvieran bombas nucleares, ¿por qué se aceptaría que una capacidad equivalente, pero digital, quede bajo mando corporativo?
“La superinteligencia es un asunto de defensa nacional”, subraya el paper, y advierte que el debate ya no es únicamente tecnológico, sino institucional.
No obstante, la pieza clave de la argumentación usa un paralelismo histórico: el Proyecto Manhattan. En la Segunda Guerra Mundial, el Gobierno de Estados Unidos entendió que la carrera nuclear no podía depender de voluntades dispersas cuando existía una amenaza existencial, como el avance nazi.
En otras palabras, la superinteligencia se parece menos a una app y más a una central eléctrica. Puede iluminar un país o apagarlo. El punto central no es si el motor existe, sino dónde se ubica la sala de control, quién entra y qué reglas rigen para accionar los botones.
También te puede interesar:El CEO de Klarna usa un avatar de IA para presentar resultados financierosSin embargo, el paper advierte que muchos laboratorios de Silicon Valley trabajan en AGI (inteligencia artificial general, capaz de rendir bien en muchas tareas) con estándares de seguridad relativamente bajos para el nivel de riesgo potencial. Es como si un edificio almacenara combustible de aviación, pero cuidara la puerta con una cerradura de departamento.
Por su parte, la discusión toca un engranaje político sensible: asumir control estatal sería un revés para la visión ultralibertaria de ciertos tecnólogos. Ese ideal, según el artículo, se apoya en la fantasía de un mundo regido por la ley del más fuerte, donde la potencia tecnológica reemplaza a las reglas compartidas.
Es decir, el texto reconoce un argumento inevitable: los laboratorios privados pueden decir “nosotros la creamos”. Y es cierto. Pero la réplica es tajante y usa un ejemplo histórico igual de físico que perturbador: los “padres” de la bomba atómica no fueron quienes decidieron lanzarla sobre Hiroshima.
No obstante, detrás de esa comparación hay una clave práctica: crear y autorizar el uso son dos llaves distintas. En una casa, una cosa es instalar el gas. Otra es quién decide cuándo se abre la válvula, con qué supervisión y con qué protocolos.
Sin embargo, el artículo también se despega del ruido sobre la “burbuja” de la IA. Señala que, más allá de si algunos proyectos están sobrevaluados, los avances ocurren “ante nuestros ojos” y más rápido de lo esperado. Semana a semana, dice, caen objeciones que antes parecían sólidas sobre si una IA podría superar capacidades humanas.
Por su parte, el texto recuerda antecedentes que ayudan a bajar el dramatismo sin bajar la guardia: las calculadoras superaron el cálculo mental y las máquinas dominaron el ajedrez. No obstante, eso no obligó a una nostalgia pretecnológica. Obligó a reorganizar hábitos, educación y reglas.
También te puede interesar:Informe Revela los Riesgos Ocultos de la IA en el Desarrollo Emocional AdolescenteEn otras palabras, la propuesta no es apagar la investigación, sino mover el cableado de la autoridad. Si se acepta que la superinteligencia es un asunto de defensa nacional, entonces la gestión debería recaer en el poder civil y sus ejércitos, con reglas comparables a las que existen para tecnologías estratégicas.
Sin embargo, el texto es categórico en un punto geopolítico: considera inevitable que Estados Unidos y Europa lideren esa carrera. No por orgullo, sino por temor a un escenario donde una potencia autoritaria marque las condiciones. Se menciona, incluso, la inquietud de un mundo demasiado influido por líderes como Xi Jinping.
No obstante, la aplicación práctica para el lector no llega como un gadget nuevo, sino como un cambio de tablero. Si la IA avanzada se vuelve “infraestructura crítica”, lo cotidiano podría verse atravesado por más auditorías, controles de acceso, estándares de seguridad y límites legales a quién puede entrenar o desplegar modelos potentes.
Es decir, se discutirán permisos, inspecciones y responsabilidades, del mismo modo que se discute quién opera una planta nuclear o quién custodia material sensible. La oportunidad no está solo en ganar la carrera tecnológica, sino en evitar que la velocidad deje la puerta abierta.
Sin embargo, el cierre del paper apunta a una idea simple y difícil de ignorar: si la superinteligencia es el nuevo interruptor central, las democracias liberales deberían decidir dónde se instala la caja, quién guarda la llave y qué pasa si alguien intenta forzarla.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.