Anthropic enfrenta pressão do Pentágono e flexibiliza segurança da IA para lutar por contratos

Anthropic enfrenta pressão do Pentágono e flexibiliza IA em busca de competitividade! A empresa, liderada por ex-OpenAI, muda estratégia de segurança. Risco de perda de contratos com o governo americano. Saiba mais!

25/02/2026 13:41

3 min de leitura

(Imagem de reprodução da internet).

Anthropic Flexibiliza Segurança da IA em Busca de Competitividade

A Anthropic, empresa fundada por ex-funcionários da OpenAI com preocupações sobre os perigos da inteligência artificial, está mudando sua abordagem fundamental de segurança em resposta à crescente concorrência no mercado de IA. A empresa está adotando uma estrutura de segurança não vinculativa, o que significa que as diretrizes podem e serão alteradas.

CONTINUA DEPOIS DA PUBLICIDADE

Essa mudança ocorre em um momento crucial, com a Anthropic enfrentando uma batalha significativa com o Pentágono dos Estados Unidos sobre as diretrizes da IA.

Mudança na Política de Segurança

Em uma postagem no blog da companhia divulgada na terça-feira (24), a Anthropic explicou que as deficiências na Política de Escalabilidade Responsável, implementada há dois anos, poderiam prejudicar sua capacidade de competir. O anúncio coincide com a pressão do governo americano, que ameaça a Anthropic com a exclusão de contratos e a inclusão em uma “lista negra do governo”.

A empresa reconhece que a política anterior foi criada para gerar consenso na indústria em torno da mitigação dos riscos da IA, mas a indústria, segundo a Anthropic, não implementou essas medidas. A empresa também destaca que a política estava desalinhada com o clima político antirregrulamentação de Washington.

Flexibilidade em Vez de Compromisso

A nova estrutura de segurança da Anthropic inclui um “Roteiro de Segurança de Fronteira”, que descreve as diretrizes e salvaguardas autoimpostas pela empresa. Em vez de compromissos rígidos, a Anthropic define objetivos públicos para os quais avaliará abertamente seu progresso.

Leia também:

CONTINUA DEPOIS DA PUBLICIDADE

A empresa acredita que isso incentivará outras empresas de IA a adotar políticas semelhantes, promovendo uma “corrida para o topo” em vez de uma “corrida para o fundo do poço”.

Pressão do Pentágono e Consequências

O Secretário de Defesa dos EUA, Pete Hegseth, deu à Anthropic um prazo até sexta-feira (27) para reverter as medidas de segurança da empresa, sob o risco de perder um contrato de US$ 200 milhões com o Pentágono e ser incluída na “lista negra do governo”.

A Anthropic tem preocupações com questões como armas controladas por IA e vigilância doméstica em massa de cidadãos americanos, que não está disposta a abandonar.

Reação da Indústria

Pesquisadores de IA expressaram apoio à posição da Anthropic nas redes sociais, demonstrando preocupação com o uso da IA para vigilância governamental. A Anthropic sempre se posicionou como a empresa de IA que prioriza a segurança, e recentemente doou US$ 20 milhões para a Public First Action, um grupo político que defende salvaguardas e educação em IA.

Conclusão

A Anthropic argumenta que o rápido avanço da IA exige flexibilidade e que interromper o treinamento de modelos de IA, enquanto concorrentes avançam, não é sensato. Jared Kaplan, diretor científico da Anthropic, enfatizou que a mudança foi feita em nome da segurança, mais do que do aumento da concorrência.

A empresa enfrenta uma batalha complexa entre a busca por inovação e a necessidade de garantir que a IA seja desenvolvida e utilizada de forma responsável.

Autor(a):

Responsável pela produção, revisão e publicação de matérias jornalísticas no portal, com foco em qualidade editorial, veracidade das informações e atualizações em tempo real.