Anthropic non cede ás presións do Departamento de Guerra dos EE.UU. para retirar as salvagardas da súa IA

venres, 27 de febreiro do 2026 Redacción

O conselleiro delegado de Anthropic, Dario Amodei, fixo pública unha declaración na que detalla as negociacións mantidas co Departamento de Guerra dos EE.UU. arredor do uso dos seus sistemas de intelixencia artificial en ámbitos militares e de seguridade nacional.
Amodei reafirma no texto a súa convicción de que a IA desempeña un papel existencial na defensa das democracias fronte a réximes autocráticos. Neste contexto, subliña que Anthropic foi pioneira na despregadura dos seus modelos en contornas clasificadas do Goberno estadounidense, nos Laboratorios Nacionais e na provisión de modelos personalizados para clientes vinculados á seguridade nacional. Segundo explica, o sistema Claude está amplamente implantado no Departamento de Guerra e noutras axencias para tarefas críticas como análise de intelixencia, modelado e simulación, planificación operativa ou operacións cibernéticas.
Anthropic tamén asegura ter adoptado decisións que prexudicaron os seus ingresos a curto prazo co obxectivo de preservar a vantaxe tecnolóxica estadounidense. Entre elas, a renuncia a centos de millóns de dólares ao cortar o acceso a empresas vinculadas ao Partido Comunista Chinés, así como o apoio a controis estritos á exportación de chips avanzados.
Con todo, Anthropic marca dúas liñas vermellas que, segundo indica, nunca formaron parte dos seus contratos co Departamento de Guerra e que non está disposta a aceptar: a vixilancia masiva doméstica e o desenvolvemento de armas plenamente autónomas.
No primeiro caso, a empresa distingue entre o uso da IA para misións legais de intelixencia exterior e contraintelixencia e a súa aplicación a esquemas de vixilancia masiva dentro do país. Amodei advirte de que a agregación automatizada e a grande escala de datos dispersos (como rexistros de movementos, navegación web ou relacións persoais) podería erosionar dereitos fundamentais, mesmo se certas prácticas resultan legais ao abeiro dunha normativa que aínda non se adaptou ás capacidades actuais da IA.
En canto ás armas plenamente autónomas (sistemas que eliminan completamente a intervención humana na selección e ataque de obxectivos), a compañía sostén que os modelos de última xeración non ofrecen aínda a fiabilidade necesaria para asumir esa responsabilidade sen riscos para militares e civís. Aínda que recoñece que estes sistemas poderían chegar a ser relevantes para a defensa nacional, considera imprescindible establecer mecanismos de supervisión e garantías que hoxe non existen.
Segundo a declaración, o Departamento de Guerra esixiu ás empresas contratistas que acepten «calquera uso legal» das súas tecnoloxías e que eliminen as salvagardas mencionadas. Anthropic afirma que, de manter a súa postura, foi ameazada coa exclusión dos sistemas gobernamentais, coa posible designación como «risco para a cadea de subministración» (unha etiqueta reservada tradicionalmente para adversarios estranxeiros) e coa eventual aplicación da Lei de Produción de Defensa para forzar a retirada das limitacións.
Amodei cualifica estas ameazas de contraditorias, ao considerar que non se pode cualificar a empresa como risco de seguridade ao tempo que se presenta a súa tecnoloxía como esencial para a defensa nacional. A pesar da presión, a compañía mantén que non pode «en boa conciencia» aceptar as condicións propostas.
Anthropic expresa a súa preferencia por continuar colaborando co Departamento de Guerra mantendo as dúas salvagardas. No caso de que o Goberno opte por substituíla por outro provedor, comprométese a facilitar unha transición ordenada que evite interrupcións en operacións militares ou misións críticas. A empresa conclúe reiterando a súa disposición a seguir contribuíndo á seguridade nacional dos Estados Unidos dentro dos límites que considera compatibles cos valores democráticos.