Anthropic non cede ás presións do Departamento de Guerra dos EE.UU. para retirar as salvagardas da súa IA
venres, 27 de febreiro do 2026
O conselleiro delegado de Anthropic, Dario Amodei, fixo pública unha declaración na que detalla as negociacións mantidas co Departamento de Guerra dos EE.UU. arredor do uso dos seus sistemas de intelixencia artificial en ámbitos militares e de seguridade nacional.
Amodei reafirma no texto a súa convicción de que a IA desempeña un papel existencial na defensa das democracias fronte a réximes autocráticos. Neste contexto, subliña que Anthropic foi pioneira na despregadura dos seus modelos en contornas clasificadas do Goberno estadounidense, nos Laboratorios Nacionais e na provisión de modelos personalizados para clientes vinculados á seguridade nacional. Segundo explica, o sistema Claude está amplamente implantado no Departamento de Guerra e noutras axencias para tarefas crÃticas como análise de intelixencia, modelado e simulación, planificación operativa ou operacións cibernéticas.
Anthropic tamén asegura ter adoptado decisións que prexudicaron os seus ingresos a curto prazo co obxectivo de preservar a vantaxe tecnolóxica estadounidense. Entre elas, a renuncia a centos de millóns de dólares ao cortar o acceso a empresas vinculadas ao Partido Comunista Chinés, asà como o apoio a controis estritos á exportación de chips avanzados.
Con todo, Anthropic marca dúas liñas vermellas que, segundo indica, nunca formaron parte dos seus contratos co Departamento de Guerra e que non está disposta a aceptar: a vixilancia masiva doméstica e o desenvolvemento de armas plenamente autónomas.
No primeiro caso, a empresa distingue entre o uso da IA para misións legais de intelixencia exterior e contraintelixencia e a súa aplicación a esquemas de vixilancia masiva dentro do paÃs. Amodei advirte de que a agregación automatizada e a grande escala de datos dispersos (como rexistros de movementos, navegación web ou relacións persoais) poderÃa erosionar dereitos fundamentais, mesmo se certas prácticas resultan legais ao abeiro dunha normativa que aÃnda non se adaptou ás capacidades actuais da IA.
En canto ás armas plenamente autónomas (sistemas que eliminan completamente a intervención humana na selección e ataque de obxectivos), a compañÃa sostén que os modelos de última xeración non ofrecen aÃnda a fiabilidade necesaria para asumir esa responsabilidade sen riscos para militares e civÃs. AÃnda que recoñece que estes sistemas poderÃan chegar a ser relevantes para a defensa nacional, considera imprescindible establecer mecanismos de supervisión e garantÃas que hoxe non existen.
Segundo a declaración, o Departamento de Guerra esixiu ás empresas contratistas que acepten «calquera uso legal» das súas tecnoloxÃas e que eliminen as salvagardas mencionadas. Anthropic afirma que, de manter a súa postura, foi ameazada coa exclusión dos sistemas gobernamentais, coa posible designación como «risco para a cadea de subministración» (unha etiqueta reservada tradicionalmente para adversarios estranxeiros) e coa eventual aplicación da Lei de Produción de Defensa para forzar a retirada das limitacións.
Amodei cualifica estas ameazas de contraditorias, ao considerar que non se pode cualificar a empresa como risco de seguridade ao tempo que se presenta a súa tecnoloxÃa como esencial para a defensa nacional. A pesar da presión, a compañÃa mantén que non pode «en boa conciencia» aceptar as condicións propostas.
Anthropic expresa a súa preferencia por continuar colaborando co Departamento de Guerra mantendo as dúas salvagardas. No caso de que o Goberno opte por substituÃla por outro provedor, comprométese a facilitar unha transición ordenada que evite interrupcións en operacións militares ou misións crÃticas. A empresa conclúe reiterando a súa disposición a seguir contribuÃndo á seguridade nacional dos Estados Unidos dentro dos lÃmites que considera compatibles cos valores democráticos.
