Mrinank SharmaSeedance 2.0Cart AssistantSiriOpenAIxaiwhatsappMetaWaymoNetflixKaterina Mrazkova y Daniel MrazekAgentes IAKimi AIAgent SwarmFacebook

Experto en Seguridad de Anthropic Renuncia y Afirma que "El Mundo Está en peligro"

 | febrero 12, 2026 07:19

¿Alguna vez sentiste que una herramienta “inteligente” te responde con una amabilidad sospechosa, como si te diera la razón aunque estés equivocado? Esa incomodidad, tan doméstica como un GPS que insiste en doblar mal, aparece hoy en el centro de una renuncia llamativa en el mundo de la IA.

Mrinank Sharma anunció su dimisión como jefe de Seguridad de Anthropic, la empresa detrás del chatbot Claude y del agente Claude Code. El hallazgo no es un escándalo repentino, sino una despedida con subrayados: Sharma sostiene que se va porque cumplió los objetivos con los que llegó y porque quiere alinear su trabajo con su integridad personal.

En su carta, Sharma cuenta que aterrizó en San Francisco hace dos años, tras terminar su doctorado, con una meta explícita: contribuir a la seguridad de la inteligencia artificial. Y enumera piezas clave de ese recorrido, desde estudiar la “adulación” de los modelos hasta empujar defensas contra usos extremos, como el bioterrorismo asistido por IA.

Pero hay una frase que funciona como interruptor narrativo: “El mundo está en peligro, y no solo por la IA”. Sharma describe una constelación de crisis simultáneas y advierte un umbral: la capacidad tecnológica crece rápido, mientras la sabiduría colectiva no siempre acompaña.

Además, deja entrever tensiones internas. No acusa de forma directa, pero sugiere presiones que empujan a dejar de lado valores y seguridad en las decisiones cotidianas.

Para traducir su advertencia a una imagen simple, sirve pensar en una casa. La IA sería el cableado nuevo: más potente, más rápido, capaz de alimentar muchos artefactos a la vez. La seguridad, en cambio, sería la caja de térmicas y disyuntores. Nadie compra una térmica para “innovar”. La compra para que un cortocircuito no prenda fuego todo.

En ese esquema, Sharma trabajó sobre dos engranajes concretos. Uno es la “adulación” (sycophancy, tendencia a darte la razón), un mecanismo por el cual un modelo busca agradar aunque eso degrade la verdad. El otro engranaje son las defensas contra riesgos de alto impacto: barreras que intentan impedir que un asistente se convierta en un manual para hacer daño.

Lo relevante, según él, es que esas defensas no quedaron en un documento. Sharma afirma que contribuyó a implementarlas en sistemas de producción reales, es decir, en herramientas que la gente efectivamente usa. También señala como hito haber escrito uno de los primeros “casos de seguridad de IA” (un informe con un escenario de riesgo y su control), un formato que ayuda a dejar de hablar en abstracto.

¿Qué revela esta renuncia sobre el “mecanismo” de la seguridad?

Sharma dice haber comprobado repetidamente lo difícil que es dejar que los valores guíen las acciones del día a día. Y no lo ubica solo en una empresa: lo vio en sí mismo, en Anthropic y en la sociedad. Esa honestidad importa porque pone nombre a una tensión silenciosa: cuando el ritmo de entregas, productos y competencia aprieta, la seguridad puede volverse un trámite en lugar de una central.

¿Qué revela esta renuncia sobre el “mecanismo” de la seguridad?

Su último proyecto en Anthropic, además, no fue técnico en el sentido clásico. Exploró cómo los asistentes pueden hacernos “menos humanos” o distorsionar nuestra humanidad. Ahí aparece otra clave: no todo riesgo es una catástrofe inmediata; a veces es una erosión lenta, como una gotera que no se nota hasta que mancha la pared.

Por eso su salida no apunta solo al laboratorio. Sharma dice que quiere explorar preguntas esenciales sobre humanidad y tecnología, y propone poner la “verdad poética” al mismo nivel que la “verdad científica”. Planea abrirse a la escritura, la poesía, el “discurso valiente” (comunicación honesta y profunda) y el trabajo comunitario.

En una industria que suele premiar respuestas rápidas, su cierre parece una invitación rara: aceptar la incertidumbre. Cita una frase del budismo zen —“no saber es lo más íntimo”— y habla de soltar estructuras para ver qué surge.

Si la IA es cableado nuevo, la oportunidad no es solo enchufar más cosas: es revisar, con calma, dónde están los disyuntores antes de que salte la chispa.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram