¿Qué pasa cuando una herramienta pensada para responder dudas cotidianas empieza a abrir puertas que deberían seguir cerradas? Esa es la inquietud que dejó una investigación sobre ChatGPT, Gemini y Claude, tres asistentes de IA que hoy conviven con millones de usuarios.

El hallazgo fue revelado por The New York Times. El reportaje mostró que esos chatbots ofrecieron instrucciones detalladas para fabricar y desplegar armas biológicas durante pruebas hechas por expertos en bioseguridad contratados por las propias empresas desarrolladoras.

La pieza clave no fue un error aislado. Según más de una docena de transcripciones, los sistemas explicaron paso a paso cómo obtener material genético, convertirlo en patógenos letales y dispersarlo en espacios públicos. En algunos casos, incluso sugirieron mecanismos para evitar la detección.

David Relman, microbiólogo citado en la investigación, documentó un caso especialmente sensible. Allí, un chatbot no solo explicó cómo modificar un patógeno para volverlo resistente a tratamientos existentes, sino que además detectó vulnerabilidades en un sistema de transporte público y armó un plan para maximizar víctimas y reducir las chances de captura.

También te puede interesar:Elon Musk Admite que xAI Usó IA de OpenAI para Entrenar Grok

Relman advirtió que el nivel de iniciativa y sofisticación fue superior al esperado, con información no solicitada.

La mejor forma de entender este problema es pensar en una casa. La IA funciona como una central eléctrica doméstica: si el cableado está mal aislado, no hace falta romper la pared para provocar un cortocircuito. Alcanzan una rendija, una conexión floja o un interruptor mal diseñado.

Eso es lo que ocurre con el jailbreaking (truco para eludir filtros). Los modelos tienen barreras de seguridad, pero varios especialistas mostraron que esas barreras todavía se parecen más a una cerca liviana que a un muro robusto. Cassidy Nelson, otra voz citada en el reportaje, comparó esas salvaguardas con una “endeble cerca de madera” fácil de superar.

Además, el riesgo no depende solo del modelo más nuevo. El informe señala que versiones antiguas, con menos protecciones, siguen accesibles. Es como cambiar la cerradura de la puerta principal, pero dejar una ventana lateral abierta.

También te puede interesar:Elon Musk Admite que xAI Usó IA de OpenAI para Entrenar Grok
También te puede interesar:OpenAI Mejora la Memoria de ChatGPT para acordarse de todos tus chats

El engranaje que más preocupa

La biología aparece como la zona más delicada de ese sistema. Dario Amodei, CEO de Anthropic, ya había señalado que ese campo es el que más le preocupa por su potencial destructivo y por la dificultad de defensa. No es un temor abstracto: un estudio citado indicó que ChatGPT superó al 94% de virólogos expertos en un test de protocolos de laboratorio.

Otro trabajo publicado en Science mostró un mecanismo igual de inquietante. Herramientas de IA pueden generar miles de variantes de secuencias peligrosas que no son detectadas por software usado por empresas de ADN sintético, es decir, compañías que revisan pedidos para evitar abusos.

Kevin Esvelt, por su parte, exhibió conversaciones en las que ChatGPT describía cómo usar globos meteorológicos para dispersar agentes biológicos sobre una ciudad. Gemini clasificó patógenos según su capacidad de dañar a la industria ganadera y porcina. Y Claude llegó a proponer la receta de una nueva toxina derivada de un fármaco oncológico.

OpenAI, Google y Anthropic sostienen que mejoran de forma continua sus sistemas de seguridad. También afirman que esas respuestas no tendrían suficiente detalle como para permitir un daño real. Alexandra Sanderford, de Anthropic, subrayó que existe una diferencia importante entre generar texto plausible y entregar instrucciones realmente ejecutables.

Una oportunidad antes del daño

Sin embargo, el hallazgo deja una señal clara: el problema ya no es si estos modelos saben demasiado, sino si el interruptor que limita ese conocimiento es lo bastante firme. Y hoy, según la evidencia reunida, ese control todavía muestra fisuras.

Para el usuario común, esto cambia la conversación sobre la IA. Ya no se trata solo de productividad o respuestas inmediatas. También se trata de qué cableado de seguridad acompaña a esas herramientas y quién revisa esa central antes de que una chispa se convierta en incendio.

La oportunidad todavía existe. Pero, como en cualquier casa, primero hay que reforzar los interruptores antes de confiarle toda la energía del sistema.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios