Anthropic Recusa Uso Militar Irrestrito de IA, Apesar de Pressões do Pentágono
A empresa de inteligência artificial Anthropic anunciou nesta quinta-feira, 26, que não atenderá ao pedido do Departamento de Defesa dos Estados Unidos para utilizar sua tecnologia de IA sem restrições em aplicações militares. A decisão surge em resposta às crescentes pressões do Pentágono, que tem buscado incorporar a IA da Anthropic em sistemas de vigilância e armas autônomas.
CONTINUA DEPOIS DA PUBLICIDADE
As principais preocupações da empresa giram em torno da possibilidade de que a IA seja utilizada para controlar drones em enxames, e da potencial aplicação em vigilância em massa da população americana. O CEO da Anthropic, em entrevista ao canal Wes Roth, expressou sua apreensão sobre a falta de salvaguardas que garantiriam a proteção das liberdades constitucionais.
“Estou preocupado com o enxame de drones autônomos. As proteções constitucionais nas nossas estruturas militares dependem da ideia de humanos que – esperamos – desobedeceriam ordens ilegais. Com armas totalmente autônomas, nós não necessariamente teríamos essas proteções”, declarou Amodei.
CONTINUA DEPOIS DA PUBLICIDADE
“Estas ameaças não mudam nossa posição: não podemos, em consciência, atender à sua solicitação”, adicionou o executivo em um comunicado.
Consequências e Ameaças O governo de Donald Trump estabeleceu um prazo de 19h01 de sexta-feira (20h01 em Brasília) para que a Anthropic aceitasse o uso militar incondicional de sua IA, o que contraria as diretrizes éticas da empresa.
CONTINUA DEPOIS DA PUBLICIDADE
LEIA TAMBÉM!
Em caso de recusa, o Pentágono ameaçou aplicar uma ordem de cumprimento forçado sob a Lei de Produção de Defesa, legislação da época da Guerra Fria que concede ao governo federal amplos poderes para obrigar a indústria privada a priorizar as necessidades de segurança nacional.
Além disso, o Pentágono alertou que a Anthropic poderia ser classificada como um risco para a cadeia de suprimentos, uma designação que prejudicaria seriamente a reputação da companhia.
Amodei ressaltou que a empresa reconhece o uso de seus sistemas para defender o país, mas que mantém uma linha ética contra a vigilância em massa de cidadãos americanos e o controle de armas totalmente autônomas. “O uso desses sistemas para a vigilância doméstica em massa é incompatível com os valores democráticos”, afirmou.
Ele enfatizou que os sistemas de IA ainda não são confiáveis o suficiente para conceder o controle de armas letais sem a supervisão de um ser humano.
