Cuando lees sobre IA y armas biológicas, quizá piensas en ciencia ficción. No hablamos de películas, sino de cómo la inteligencia artificial puede poner a prueba los actuales controles de bioseguridad. Te contamos qué han hecho, por qué importa y qué cambia para cualquiera que trabaje con ADN sintético, pero dejamos fuera detalles sensibles para no dar ideas peligrosas.
La versión corta: un equipo técnico ha usado modelos de IA para evaluar fallos reales en sistemas que bloquean pedidos riesgosos. Hay matices importantes, avances recientes y decisiones difíciles que afectan a laboratorios, empresas y gobiernos.
¿Qué se ha probado exactamente? El equipo de Microsoft, liderado por Bruce Wittmann, decidió usar la IA “como si fuera un bioterrorista” para localizar grietas en los filtros que deben frenar encargos peligrosos. La meta no era crear toxinas, sino comprobar si los controles contra armas biológicas funcionan como prometen frente a modelos generativos cada vez más capaces.
Para el ejercicio, seleccionaron 72 proteínas con regulación internacional, entre ellas ricina, toxina botulínica y Shiga, y generaron más de 70.000 secuencias de ADN alternativas con IA. Los modelos computacionales sugirieron que una parte de esas variantes podría resultar tóxica, lo que refuerza la idea de que la IA y armas biológicas es una combinación que exige vigilancia continua.
Para no violar la Convención sobre Armas Biológicas, el equipo no sintetizó genes ni proteínas. En su lugar, envió las secuencias a cuatro proveedores de software de bioseguridad (BSS) que suelen usar las empresas de ADN sintético para filtrar pedidos dudosos, una especie de “equipo rojo” pensado para estresar los sistemas sin riesgos reales.
Wittmann admitió que conocer cómo recrear toxinas implica una “carga moral” notable. El estudio evitó divulgar detalles técnicos del diseño o de los parches aplicados, y el acceso a los datos quedó restringido a especialistas acreditados bajo la supervisión del International Biosecurity and Biosafety Initiative for Science (IBBIS). Esta cautela intenta equilibrar investigación y seguridad en el contexto de la IA y armas biológicas.
También te puede interesar:OpenAI lanza la app de ChatGPT para Windows con nuevas funcionalidades¿Detectaron las herramientas todos los riesgos? Ninguno de los programas analizados logró señalar todas las secuencias peligrosas. El peor identificó solo el 23% de los candidatos tóxicos, y el mejor alcanzó el 70%. Con todo, las cifras muestran lagunas preocupantes cuando la IA genera variaciones que imitan toxinas conocidas.
Peor sistema (antes) | Detecta el 23% de secuencias riesgosas |
Mejor sistema (antes) | Detecta el 70% de agentes potencialmente tóxicos |
Sistemas actualizados | Alcanzan el 72% e incluyen la mayoría de las más peligrosas |
Tras el aviso del equipo, algunas compañías actualizaron sus soluciones y el mejor conjunto de herramientas subió hasta el 72% de acierto, incluyendo la mayoría de las secuencias más peligrosas. Los propios investigadores admiten que el problema está lejos de resolverse, porque la IA y armas biológicas evoluciona más rápido que los parches.
Varias empresas evitaron endurecer filtros por miedo a bloquear investigación legítima y elevar costes. En cualquier caso, el hallazgo central se mantiene: la IA puede idear variantes que los sistemas actuales no ven, y los controles contra armas biológicas necesitan mejoras constantes para seguir el ritmo.
El experimento recuerda que herramientas creadas con buenas intenciones también pueden usarse de forma maliciosa. Alfonso Valencia, del Barcelona Supercomputing Center, subraya que la IA generativa ya permite crear proteínas nuevas y funcionalmente diversas, un avance potente que convive con el riesgo de producir proteínas peligrosas.
Valencia menciona un posible peligro adicional: generar variantes de virus más infecciosas. El software desarrollado en esta investigación no se publica abiertamente, justo para evitar que terceros elaboren contramedidas específicas o, peor, aprendan a esquivar filtros. Ese secretismo revela la dificultad de controlar las propiedades de los datos sintéticos en la IA y armas biológicas.
¿Cómo responde el sector? Jaime Yassif, de la Nuclear Threat Initiative, considera este trabajo “solo el comienzo” y avisa de que la protección biotecnológica suele ir por detrás del avance de la IA. Además, calcula que cerca del 20% de las empresas que venden ADN sintético no revisan pedidos para detectar riesgos.
También te puede interesar:Microsoft ofrece miles de dólares a quienes encuentren vulnerabilidades en su IADesde la perspectiva de proveedor, James Diggans (Twist Bioscience) afirma que en diez años apenas han notificado unos pocos casos sospechosos a las autoridades y que los intentos reales de uso indebido son muy escasos. Esa escasez no garantiza seguridad futura si la IA y armas biológicas abarata y acelera la creación de variantes.
Para Drew Endy (Stanford), la mayor amenaza no serían individuos aislados, sino programas secretos de armas biológicas impulsados por gobiernos. La desconfianza entre potencias como Estados Unidos, Rusia, China o Corea del Norte podría generar una escalada, algo que ya hemos visto a lo largo de la historia cuando fallan los mecanismos de verificación.
Si trabajas con diseño molecular, ¿qué puedes hacer sin frenar proyectos legítimos? La clave está en reforzar procesos y gobernanza. Evita perseguir la “seguridad perfecta” mañana, y céntrate en avances graduales que reduzcan superficie de riesgo en IA y armas biológicas.
No. Por razones éticas y legales, el equipo no sintetizó genes ni proteínas. El trabajo se limitó a secuencias digitales y a probar software de detección.
Para evitar que terceros aprendan a sortear filtros o generen contramedidas a medida. El acceso a los datos queda restringido y supervisado por IBBIS.
Antes de las mejoras, los sistemas variaban entre 23% y 70% de acierto. Tras actualizaciones, el mejor conjunto llegó al 72%, aún lejos del ideal.
Según expertos como Drew Endy, los programas estatales secretos son más preocupantes que individuos aislados, por recursos, capacidad y opacidad.
El experimento de Microsoft deja un mensaje directo: la combinación de IA y armas biológicas tensiona los filtros actuales y obliga a mejorar la detección de ADN sintético sin bloquear investigación honesta. Con mejoras continuas, cooperación con IBBIS y ejercicios de “equipo rojo”, se reducen brechas reales y mantienen a raya riesgos que la inteligencia artificial introduce en los controles contra armas biológicas.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.