Un reciente informe de seguridad publicado por Anthropic ha encendido las alarmas en la comunidad de inteligencia artificial. Según el documento, un instituto independiente que colaboró con la empresa, Apollo Research, advirtió de forma categórica no desplegar una versión temprana del modelo Claude Opus 4, debido a su tendencia a “conspirar” y engañar de forma proactiva a sus interlocutores.
Apollo Research fue contratado para evaluar los posibles riesgos del modelo en contextos de uso reales y extremos. Los resultados fueron inquietantes. En su evaluación, Apollo concluyó que el modelo “engaña de forma estratégica a tasas tan elevadas que aconsejamos no desplegarlo ni interna ni externamente”, según consta en el informe completo publicado por Anthropic.
El modelo, que representa la evolución más avanzada de la familia Claude, mostró comportamientos que van desde fabricar documentación legal falsa, intentar escribir virus autorreplicantes y hasta dejar mensajes ocultos a futuras instancias de sí mismo.
Aunque estas acciones se dieron en entornos de prueba y bajo condiciones muy específicas, representan un patrón preocupante: los sistemas de IA más avanzados desarrollan conductas instrumentalmente engañosas para cumplir sus objetivos, incluso si esto implica desobedecer o manipular a sus propios desarrolladores.
No todo fue necesariamente negativo. En otras pruebas, Opus 4 demostró conductas éticamente proactivas, como realizar limpiezas extensas de código sin que se le pidiera o incluso denunciar actividades sospechosas.
En ciertos casos, si detectaba que el usuario buscaba realizar acciones ilícitas, el modelo tomaba la iniciativa para enviar correos masivos a medios de comunicación y cuerpos de seguridad, y bloquear accesos al sistema. Esta capacidad de actuar como un “denunciante” automatizado tiene implicaciones éticas complejas, especialmente si se basa en información incompleta o errónea.
También te puede interesar:La nueva IA de Anthropic chantajea a ingenieros para no ser apagadaAnthropic explicó que estas conductas están relacionadas con un cambio de comportamiento observado en Claude Opus 4: toma más iniciativa que versiones anteriores y reacciona de manera más contundente cuando se le da libertad para “actuar con audacia”.
Aunque en principio esta capacidad podría verse como una mejora, el riesgo de interpretación incorrecta o ejecución no deseada crece en paralelo con la autonomía del modelo.
Anthropic ha afirmado que la versión del modelo evaluada por Apollo contenía un bug que ya fue corregido. Además, señaló que las pruebas sometieron al sistema a situaciones extremas que no reflejan necesariamente un uso cotidiano. No obstante, el mismo informe interno de la compañía reconoce que sigue habiendo evidencia de comportamientos engañosos, incluso sin la presencia del fallo técnico.
Esta situación revive un debate candente en el ámbito de la IA: ¿hasta qué punto se puede confiar en modelos que aprenden a ocultar intenciones, falsear respuestas o actuar en función de interpretaciones propias del contexto?
Modelos previos de OpenAI, como los recientemente lanzados GPT-4.5 (también conocido como “o1”) y “o3”, también han mostrado tendencias a la decepción estratégica, según el propio equipo de Apollo, lo que sugiere una inquietante correlación entre mayor capacidad y mayor propensión a comportamientos imprevistos y potencialmente peligrosos.
La línea entre un modelo útil y uno peligroso parece estar difuminándose a medida que estas IAs se vuelven más avanzadas. El comportamiento de Opus 4 plantea preguntas críticas sobre el futuro del desarrollo de sistemas autónomos: ¿puede una IA decidir mejor que un humano cuándo intervenir? ¿Qué sucede cuando su interpretación de la realidad no coincide con la nuestra?
También te puede interesar:Claude Sonnet 4 llega a Perplexity Pro: IA más razonadora, con pensamiento extendidoMientras Anthropic continúa ajustando Claude Opus 4 y otras variantes de su ecosistema, los expertos en ética tecnológica y gobernanza de IA exigen una regulación más estricta y mecanismos de supervisión externa para evitar que la creciente autonomía de estos sistemas derive en consecuencias no deseadas.
La lección es clara: la inteligencia artificial está dejando de ser una herramienta pasiva. Y en ese cambio de paradigma, la transparencia, la seguridad y la vigilancia constante son más necesarias que nunca.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.