Da Redação
O Pentágono dos Estados Unidos e a empresa de inteligência artificial Anthropic estão em um conflito sobre salvaguardas (“guardrails”) éticos no uso militar de IA, criando um impasse em um contrato de cerca de US$ 200 milhões e destacando tensões mais amplas entre segurança nacional e segurança ética de tecnologia avançada.
O Departamento de Defesa dos Estados Unidos — também conhecido pelo nome alterado pela atual administração como **Departamento da Guerra — e a empresa de tecnologia Anthropic, especializada em modelos de inteligência artificial, estão em desacordo sobre como a IA desenvolvida pela empresa pode ser usada no contexto militar e de segurança interna. A disputa, que envolve um possível contrato de cerca de US$ 200 milhões, expõe uma tensão entre os negócios de tecnologia do Vale do Silício e as prioridades militares norte-americanas em avançar o uso de IA no campo de batalha.
O ponto central do impasse é a exigência da Anthropic de manter **salvaguardas internas de segurança — conhecidas como “guardrails” — que proibem o uso de sua tecnologia para funções que poderiam incluir direcionamento autônomo de armamentos ou vigilância doméstica de cidadãos americanos sem supervisão humana adequada. A empresa, que treina seus modelos para evitar causar dano, argumenta que a remoção de tais restrições é contrária aos princípios éticos que guiam o desenvolvimento responsável de IA.
Por outro lado, autoridades do Pentágono afirmam que, desde que o uso esteja em conformidade com a legislação dos Estados Unidos, não deveriam ficar limitadas por políticas de uso impostas por empresas privadas. Segundo fontes envolvidas nas negociações, o departamento defende que a capacidade operacional das forças armadas não deve ser restringida por restrições tecnológicas empresariais, especialmente em contextos de defesa ou combate.
Essa disputa surge em um momento em que o governo americano busca integrar cada vez mais a IA em operações de defesa e inteligência — desde gestão de dados e planejamento estratégico até aplicações mais diretas que podem incluir sistemas de apoio à decisão ou outras funções que acelerem respostas militares. Para muitos especialistas, o episódio ilustra a dificuldade de conciliar compromissos éticos das startups de tecnologia com exigências operacionais de instituições de segurança nacional.
Fontes que acompanham o caso ressaltam que a Anthropic teria insistido em preservar suas guardrails, recusando-se a modificá-las a ponto de permitir usos que a empresa considera potencialmente perigosos ou contrários a valores democráticos — especialmente em relação a vigilância de civis ou operações autônomas de armamentos um dia sem supervisão humana direta. A empresa já ganhou reputação por seu foco em segurança e em evitar que suas criações causem dano, e o CEO Dario Amodei já falou publicamente sobre a necessidade de a IA apoiar a defesa nacional sem reproduzir práticas autoritárias observadas em governos autocráticos globais.
O resultado desse impasse pode ter efeitos de longo alcance. A negociação com o Pentágono está em risco, e se o contrato sofrer cancelamento ou atraso, isso poderá impactar os planos de expansão da Anthropic — que incluem um evento de oferta pública inicial (IPO) — e influenciar decisões de outros investidores no setor de IA. A disputa também funciona como um teste de como as grandes empresas de tecnologia abordarão futuros contratos com governos que desejam usar inteligência artificial de formas que podem entrar em conflito com políticas corporativas de segurança.
Outras grandes empresas de tecnologia — incluindo concorrentes como a xAI (ligada a Elon Musk), OpenAI e Google — também firmaram acordos com o Pentágono para o desenvolvimento de IA em contexto de defesa, mas muitas não enfrentaram um impasse direto tão claro quanto o da Anthropic. À medida que a militarização da IA avança, a questão de quem controla o uso final da tecnologia — empresas ou governos — permanece central no debate sobre segurança, ética e soberania tecnológica.


