Claude Gov es la nueva propuesta en inteligencia artificial de Anthropic dirigida directamente a agencias de defensa e inteligencia en Estados Unidos. Las soluciones de IA para gobiernos están ganando mucho espacio últimamente y, como vas a ver, la competencia entre gigantes como Anthropic y OpenAI se traslada al mundo de los servicios públicos con productos cada vez más “a medida”.
Esta versión específica de Claude está preparada para trabajar con información altamente sensible, y presenta limitaciones menos estrictas al procesar datos clasificados en comparación con los modelos pensados para usuarios particulares. Varios organismos de seguridad nacional estadounidenses ya han implementado Claude Gov, aunque Anthropic prefiere no dar cifras ni detalles de casos concretos.
¿En qué sobresale Claude Gov sobre alternativas como ChatGPT Gov de OpenAI? Para empezar, Claude Gov está desarrollado específicamente para responder a necesidades del sector público: análisis de inteligencia, evaluación de amenazas y manejo directo de información clasificada. Son tareas para las que los modelos convencionales resultan poco eficaces, principalmente por sus mayores limitaciones de acceso y uso de datos sensibles.
Gracias a restricciones menos severas —los famosos “looser guardrails”—, vas a poder procesar información clasificada con más soltura. El producto está entrenado para comprender documentos institucionales, contextos complejos y particularidades idiomáticas propias del sector defensa y de la seguridad nacional.
Además, las capacidades en lenguas y dialectos específicos ofrecen una ventaja clara a la hora de actuar en misiones internacionales o sectores donde la especialización es clave.
El acceso a Claude Gov no es libre: solo está disponible para agencias públicas que gestionan información muy delicada. Los modelos de Anthropic han pasado las mismas pruebas de seguridad que sus versiones comerciales, pero incluyen detalles técnicos y requisitos legalmente adaptados a las operaciones nacionales de Estados Unidos.
¿Qué hace falta para que una agencia gubernamental pueda trabajar con IA en contextos de máxima seguridad? En el caso de Claude Gov, solo aquellas organizaciones autorizadas y con competencias en el manejo de información clasificada pueden acceder al servicio. Anthropic afirma que, desde hace meses, el producto ya se usa en organismos cuya cobertura de seguridad nacional es de las más exigentes.
El diseño de Claude Gov parte de una política de control flexible: la empresa permite, bajo contrato, excepciones cuidadosamente estudiadas sobre el tipo de información que el modelo procesa. Si bien en su versión estándar Claude rechaza sistemáticamente datos sensibles, la edición “Gov” muestra mucha mayor disposición a tratar este tipo de casos, siempre dentro de un marco controlado por la propia agencia solicitante.
Anthropic mantiene una línea roja clara. Los acuerdos contractuales se ajustan casuísticamente entre el marco legal y la misión concreta de cada agencia, pero nunca permiten la creación, facilitación o intercambio de armamento, explosivos o materiales peligrosos. Igualmente, el desarrollo de sistemas para hacer daño, causar muertes, diseñar armas o campañas de desinformación sigue siendo ilegales.
Por ejemplo, el uso de IA en campañas de censura, operaciones cibernéticas maliciosas o manipulación informativa política continúan vetados, a pesar de estas excepciones para la defensa nacional. Con todo, la posibilidad de relajar ciertas reglas técnicas tiene el objetivo de maximizar los beneficios de la IA cuando la seguridad pública lo exige y siempre buscando minimizar sus riesgos colaterales.
Claude Gov y ChatGPT Gov son ya dos nombres clave dentro del mercado de IA para administraciones públicas en EE.UU. La oferta de Anthropic responde al lanzamiento de la versión “Gov” de OpenAI presentado en enero, marcando una nueva etapa donde los servicios para usuarios finales y para gobiernos se bifurcan radicalmente.
Mientras que OpenAI publicita cifras de adopción —más de 90.000 empleados públicos usando tecnología ChatGPT para traducir, resumir, redactar informes o generar código—, Anthropic no ha divulgado números concretos ni casos de uso reales para Claude Gov.
Lo cierto es que ambos modelos buscan aumentar la productividad, rapidez y precisión en áreas administrativas críticas, pero Claude Gov promete un trabajo más directo con documentos y escenarios realmente clasificados, eliminando muchas de las negativas que vemos en versiones comerciales.
La competición por proveer sistemas inteligentes a instituciones gubernamentales no se libra solo en el plano técnico: los riesgos éticos y los daños colaterales son una preocupación real y creciente. Han salido a la luz arrestos incorrectos basados en reconocimiento facial policial, errores en la predicción de delitos y discriminación por parte de programas automatizados encargados de valorar ayudas sociales. Todos estos casos muestran cómo los algoritmos pueden amplificar injusticias si no se diseñan y supervisan con suficiente rigor.
Los colectivos minoritarios y otras comunidades vulnerables son quienes más sufren estos efectos adversos. Las propias agencias estadounidenses se han visto obligadas a revisar muchas de sus aplicaciones tras varias denuncias públicas y mediáticas.
Otro frente especialmente sensible se encuentra en la relación entre grandes tecnológicas y el sector militar. Gigantes como Microsoft, Amazon o Google han sido objeto de protestas organizadas bajo iniciativas como “No Tech for Apartheid”, surgidas a raíz de colaboraciones en conflictos internacionales, por ejemplo, en Israel. Aquí el debate gira en torno a los límites del desarrollo tecnológico a la hora de servir a la defensa y los derechos humanos, un dilema que afecta directamente a productos como Claude Gov y competidores similares.
¿Permite Anthropic cualquier uso con sus herramientas? Claramente, no; su política de “uso responsable” pone límites tajantes al uso de Claude Gov. No está permitido el desarrollo de sistemas para fines violentos, ilegales, ni aquellos que faciliten explosivos o materiales peligrosos.
Hace ya casi un año, Anthropic instituyó un sistema de excepciones contractuales donde determinadas agencias pueden acordar un levantamiento parcial de barreras para usos definidos como beneficiosos, siempre sometidos a controles internos y externos. La empresa mantiene ciertas prohibiciones permanentes en campañas de manipulación, ciberguerra y censura, optando siempre por adaptar las restricciones a la misión gubernamental correspondiente.
El despegar de Claude Gov forma parte de una tendencia en la que startups y grandes tecnológicas quieren conquistar el sector público norteamericano y, cada vez más, el internacional.
Anthropic participa en el programa FedStart de Palantir, lo que facilita el despliegue de su software en organismos federales; mientras tanto, OpenAI y su ChatGPT Gov suman decenas de miles de empleados públicos en diferentes niveles. La carrera por ofrecer IA “a medida” para gobiernos parece acelerarse con nuevos actores y contratos millonarios.
Por su parte, Scale AI se ha posicionado como proveedor imprescindible: en marzo selló un acuerdo con el Departamento de Defensa estadounidense para introducir IA en la planificación militar y, muy recientemente, cerró un contrato de cinco años con el gobierno de Catar para suministrar herramientas de automatización en servicios civiles, sanitarios y de transporte.
El auge de soluciones como Claude Gov marca un antes y un después en el uso de inteligencia artificial para la administración pública y la defensa. Con restricciones adaptables, capacidad para tratar información clasificada y políticas de control sobre posibles usos nocivos, Claude Gov responde a una demanda creciente en el sector público estadounidense y, mediante la colaboración con grandes y pequeñas tecnológicas, dibuja el inicio de una nueva etapa en la gobernanza digital.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.