Anthropic Flexibiliza Segurança da IA em Busca de Competitividade
A Anthropic, empresa fundada por ex-funcionários da OpenAI com preocupações sobre os perigos da inteligência artificial, está mudando sua abordagem fundamental de segurança em resposta à crescente concorrência no mercado de IA. A empresa está adotando uma estrutura de segurança não vinculativa, o que significa que as diretrizes podem e serão alteradas.
CONTINUA DEPOIS DA PUBLICIDADE
Essa mudança ocorre em um momento crucial, com a Anthropic enfrentando uma batalha significativa com o Pentágono dos Estados Unidos sobre as diretrizes da IA.
Mudança na Política de Segurança
Em uma postagem no blog da companhia divulgada na terça-feira (24), a Anthropic explicou que as deficiências na Política de Escalabilidade Responsável, implementada há dois anos, poderiam prejudicar sua capacidade de competir. O anúncio coincide com a pressão do governo americano, que ameaça a Anthropic com a exclusão de contratos e a inclusão em uma “lista negra do governo”.
CONTINUA DEPOIS DA PUBLICIDADE
A empresa reconhece que a política anterior foi criada para gerar consenso na indústria em torno da mitigação dos riscos da IA, mas a indústria, segundo a Anthropic, não implementou essas medidas. A empresa também destaca que a política estava desalinhada com o clima político antirregrulamentação de Washington.
Flexibilidade em Vez de Compromisso
A nova estrutura de segurança da Anthropic inclui um “Roteiro de Segurança de Fronteira”, que descreve as diretrizes e salvaguardas autoimpostas pela empresa. Em vez de compromissos rígidos, a Anthropic define objetivos públicos para os quais avaliará abertamente seu progresso.
CONTINUA DEPOIS DA PUBLICIDADE
LEIA TAMBÉM!
A empresa acredita que isso incentivará outras empresas de IA a adotar políticas semelhantes, promovendo uma “corrida para o topo” em vez de uma “corrida para o fundo do poço”.
Pressão do Pentágono e Consequências
O Secretário de Defesa dos EUA, Pete Hegseth, deu à Anthropic um prazo até sexta-feira (27) para reverter as medidas de segurança da empresa, sob o risco de perder um contrato de US$ 200 milhões com o Pentágono e ser incluída na “lista negra do governo”.
A Anthropic tem preocupações com questões como armas controladas por IA e vigilância doméstica em massa de cidadãos americanos, que não está disposta a abandonar.
Reação da Indústria
Pesquisadores de IA expressaram apoio à posição da Anthropic nas redes sociais, demonstrando preocupação com o uso da IA para vigilância governamental. A Anthropic sempre se posicionou como a empresa de IA que prioriza a segurança, e recentemente doou US$ 20 milhões para a Public First Action, um grupo político que defende salvaguardas e educação em IA.
Conclusão
A Anthropic argumenta que o rápido avanço da IA exige flexibilidade e que interromper o treinamento de modelos de IA, enquanto concorrentes avançam, não é sensato. Jared Kaplan, diretor científico da Anthropic, enfatizou que a mudança foi feita em nome da segurança, mais do que do aumento da concorrência.
A empresa enfrenta uma batalha complexa entre a busca por inovação e a necessidade de garantir que a IA seja desenvolvida e utilizada de forma responsável.
