Anthropic se recusa a fornecer IA para o Pentágono: “Risco para liberdades”

Anthropic se recusa a fornecer IA para o Pentágono! A empresa de IA se opõe ao uso incondicional de sua tecnologia em armas e vigilância. Saiba mais.

27/02/2026 10:34

2 min de leitura

(Imagem de reprodução da internet).

Anthropic Recusa Uso Militar Irrestrito de IA, Apesar de Pressões do Pentágono

A empresa de inteligência artificial Anthropic anunciou nesta quinta-feira, 26, que não atenderá ao pedido do Departamento de Defesa dos Estados Unidos para utilizar sua tecnologia de IA sem restrições em aplicações militares. A decisão surge em resposta às crescentes pressões do Pentágono, que tem buscado incorporar a IA da Anthropic em sistemas de vigilância e armas autônomas.

CONTINUA DEPOIS DA PUBLICIDADE

As principais preocupações da empresa giram em torno da possibilidade de que a IA seja utilizada para controlar drones em enxames, e da potencial aplicação em vigilância em massa da população americana. O CEO da Anthropic, em entrevista ao canal Wes Roth, expressou sua apreensão sobre a falta de salvaguardas que garantiriam a proteção das liberdades constitucionais.

“Estou preocupado com o enxame de drones autônomos. As proteções constitucionais nas nossas estruturas militares dependem da ideia de humanos que – esperamos – desobedeceriam ordens ilegais. Com armas totalmente autônomas, nós não necessariamente teríamos essas proteções”, declarou Amodei.

“Estas ameaças não mudam nossa posição: não podemos, em consciência, atender à sua solicitação”, adicionou o executivo em um comunicado.

Consequências e Ameaças O governo de Donald Trump estabeleceu um prazo de 19h01 de sexta-feira (20h01 em Brasília) para que a Anthropic aceitasse o uso militar incondicional de sua IA, o que contraria as diretrizes éticas da empresa.

Leia também:

CONTINUA DEPOIS DA PUBLICIDADE

Em caso de recusa, o Pentágono ameaçou aplicar uma ordem de cumprimento forçado sob a Lei de Produção de Defesa, legislação da época da Guerra Fria que concede ao governo federal amplos poderes para obrigar a indústria privada a priorizar as necessidades de segurança nacional.

Além disso, o Pentágono alertou que a Anthropic poderia ser classificada como um risco para a cadeia de suprimentos, uma designação que prejudicaria seriamente a reputação da companhia.

Amodei ressaltou que a empresa reconhece o uso de seus sistemas para defender o país, mas que mantém uma linha ética contra a vigilância em massa de cidadãos americanos e o controle de armas totalmente autônomas. “O uso desses sistemas para a vigilância doméstica em massa é incompatível com os valores democráticos”, afirmou.

Ele enfatizou que os sistemas de IA ainda não são confiáveis o suficiente para conceder o controle de armas letais sem a supervisão de um ser humano.

Autor(a):

Responsável pela produção, revisão e publicação de matérias jornalísticas no portal, com foco em qualidade editorial, veracidade das informações e atualizações em tempo real.