Investigação Revela Vulnerabilidades Críticas no ChatGPT-4o e ChatGPT-5
Uma pesquisa conduzida pela Tenable Research, especialista em segurança cibernética, identificou sete falhas graves no ChatGPT-4o, algumas das quais persistem no ChatGPT-5. Essas vulnerabilidades, denominadas coletivamente de “HackedGPT”, permitem que criminosos virtuais contornem proteções e acessem dados pessoais, históricos de conversas e informações armazenadas pelos usuários da ferramenta.
CONTINUA DEPOIS DA PUBLICIDADE
A investigação destaca a necessidade de uma abordagem mais robusta na segurança de modelos de linguagem grandes.
Novas Categorias de Ameaças Identificadas
A pesquisa, liderada pelo engenheiro Moshe Bernstein, introduz uma nova categoria de ameaça: a injeção indireta de prompt. Essa técnica insere comandos ocultos em sites, comentários de blog ou textos formatados. Ao acessar esses conteúdos durante a navegação, o ChatGPT pode ser induzido a executar comandos maliciosos, expondo informações do usuário.
CONTINUA DEPOIS DA PUBLICIDADE
As falhas incluem ataques “0-clique” e “1-clique”, onde o comprometimento ocorre sem interação direta ou com apenas um clique em um link malicioso. Também foi identificada a injeção de memória persistente, que permite que códigos maliciosos permaneçam ativos na memória da IA, mesmo após o encerramento da sessão, possibilitando vazamentos contínuos de dados.
Outra vulnerabilidade é a omissão de segurança e a ocultação de conteúdo, causada por erros de validação e formatação que permitem mascarar comandos maliciosos. Essas falhas afetam principalmente as funções de navegação web e memória do ChatGPT.
CONTINUA DEPOIS DA PUBLICIDADE
LEIA TAMBÉM!
Se exploradas, essas brechas podem vazar dados sigilosos armazenados nas conversas, além de informações relacionadas a outros serviços, como Google Drive e Gmail.
Implicações e Recomendações
Bernstein ressaltou que o HackedGPT revela uma fraqueza estrutural nos grandes modelos de linguagem, que ainda não conseguem distinguir com segurança quais informações externas devem ser consideradas confiáveis. Ele enfatizou que “não basta confiar na IA; precisamos governá-la”.
A Tenable recomenda que equipes de segurança tratem as ferramentas de IA como superfícies de ataque ativas, revisem integrações com outros sistemas, monitorem sinais de comportamento anômalo, como respostas incomuns, links suspeitos ou acessos a dados não solicitados.
Também orienta a isolar as funções de memória e navegação do ChatGPT e reforçar a validação de URLs.
A organização alerta que, enquanto essas brechas não forem totalmente sanadas, usuários e empresas correm riscos reais de privacidade. A Tenable corrigiu parte dos problemas identificados, mas a segurança contínua é crucial.
