¿Alguna vez sentiste que una herramienta “inteligente” te responde con una amabilidad sospechosa, como si te diera la razón aunque estés equivocado? Esa incomodidad, tan doméstica como un GPS que insiste en doblar mal, aparece hoy en el centro de una renuncia llamativa en el mundo de la IA.
Mrinank Sharma anunció su dimisión como jefe de Seguridad de Anthropic, la empresa detrás del chatbot Claude y del agente Claude Code. El hallazgo no es un escándalo repentino, sino una despedida con subrayados: Sharma sostiene que se va porque cumplió los objetivos con los que llegó y porque quiere alinear su trabajo con su integridad personal.
En su carta, Sharma cuenta que aterrizó en San Francisco hace dos años, tras terminar su doctorado, con una meta explícita: contribuir a la seguridad de la inteligencia artificial. Y enumera piezas clave de ese recorrido, desde estudiar la “adulación” de los modelos hasta empujar defensas contra usos extremos, como el bioterrorismo asistido por IA.

Pero hay una frase que funciona como interruptor narrativo: “El mundo está en peligro, y no solo por la IA”. Sharma describe una constelación de crisis simultáneas y advierte un umbral: la capacidad tecnológica crece rápido, mientras la sabiduría colectiva no siempre acompaña.
Además, deja entrever tensiones internas. No acusa de forma directa, pero sugiere presiones que empujan a dejar de lado valores y seguridad en las decisiones cotidianas.
Para traducir su advertencia a una imagen simple, sirve pensar en una casa. La IA sería el cableado nuevo: más potente, más rápido, capaz de alimentar muchos artefactos a la vez. La seguridad, en cambio, sería la caja de térmicas y disyuntores. Nadie compra una térmica para “innovar”. La compra para que un cortocircuito no prenda fuego todo.
En ese esquema, Sharma trabajó sobre dos engranajes concretos. Uno es la “adulación” (sycophancy, tendencia a darte la razón), un mecanismo por el cual un modelo busca agradar aunque eso degrade la verdad. El otro engranaje son las defensas contra riesgos de alto impacto: barreras que intentan impedir que un asistente se convierta en un manual para hacer daño.
Lo relevante, según él, es que esas defensas no quedaron en un documento. Sharma afirma que contribuyó a implementarlas en sistemas de producción reales, es decir, en herramientas que la gente efectivamente usa. También señala como hito haber escrito uno de los primeros “casos de seguridad de IA” (un informe con un escenario de riesgo y su control), un formato que ayuda a dejar de hablar en abstracto.
Sharma dice haber comprobado repetidamente lo difícil que es dejar que los valores guíen las acciones del día a día. Y no lo ubica solo en una empresa: lo vio en sí mismo, en Anthropic y en la sociedad. Esa honestidad importa porque pone nombre a una tensión silenciosa: cuando el ritmo de entregas, productos y competencia aprieta, la seguridad puede volverse un trámite en lugar de una central.

Su último proyecto en Anthropic, además, no fue técnico en el sentido clásico. Exploró cómo los asistentes pueden hacernos “menos humanos” o distorsionar nuestra humanidad. Ahí aparece otra clave: no todo riesgo es una catástrofe inmediata; a veces es una erosión lenta, como una gotera que no se nota hasta que mancha la pared.
Por eso su salida no apunta solo al laboratorio. Sharma dice que quiere explorar preguntas esenciales sobre humanidad y tecnología, y propone poner la “verdad poética” al mismo nivel que la “verdad científica”. Planea abrirse a la escritura, la poesía, el “discurso valiente” (comunicación honesta y profunda) y el trabajo comunitario.
En una industria que suele premiar respuestas rápidas, su cierre parece una invitación rara: aceptar la incertidumbre. Cita una frase del budismo zen —“no saber es lo más íntimo”— y habla de soltar estructuras para ver qué surge.
Si la IA es cableado nuevo, la oportunidad no es solo enchufar más cosas: es revisar, con calma, dónde están los disyuntores antes de que salte la chispa.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.