ChatGPT: Incidentes Informacionais Revelam Riscos em Uso e Necessidade de Governança. Riscos informacionais surgem de configurações inadequadas, falta de governança e comportamento humano. Incidente com indexação de conversas por mecanismos de busca expôs dados pessoais. Bug de sessão exibiu títulos de chats de terceiros, revelando informações sensíveis. Funcionários inseriram código-fonte confidencial, levando à proibição da ferramenta. Vazamento por ausência de política corporativa de IA expôs contratos e dados de clientes. Malware capturou sessões de usuários do ChatGPT, permitindo acesso a contas. Extensões de navegador coletaram prompts e respostas, revelando interações com o ChatGPT. Prompt injection em sistemas integrados ao ChatGPT foi explorada para extrair informações internas. Compartilhamento voluntário de conversas sensíveis em redes sociais expôs segredos. Confusão sobre treinamento do modelo levou à exposição indevida de dados. Uso de contas pessoais para assuntos corporativos gerou riscos de segurança
O crescente uso de ferramentas de Inteligência Artificial como o ChatGPT, em contextos pessoais, profissionais e corporativos, trouxe ganhos significativos em termos de produtividade. No entanto, esse avanço tecnológico também revelou novos vetores de risco informacional. É crucial destacar que os casos apresentados a seguir não representam falhas estruturais inerentes à plataforma ChatGPT, mas sim problemas decorrentes de configurações inadequadas, falta de governança, comportamento humano e vulnerabilidades de segurança nos ambientes de uso.
CONTINUA DEPOIS DA PUBLICIDADE
A análise dos incidentes documentados oferece valiosas lições sobre como mitigar esses riscos.
Usuários compartilharam links públicos de conversas no ChatGPT sem compreender que esses links poderiam ser indexados por mecanismos de busca como o Google. Como resultado, diálogos contendo dados pessoais, relatos íntimos e informações profissionais tornaram-se acessíveis ao público.
A prevenção reside na cautela ao compartilhar links de conversas com conteúdo sensível, na compreensão clara das opções de privacidade e no tratamento de chats como documentos potencialmente divulgáveis.
Uma instabilidade técnica resultou na visualização, por alguns usuários, de títulos de conversas pertencentes a terceiros. Embora o conteúdo não tenha sido exposto integralmente, os títulos já podiam revelar informações sensíveis. A mitigação passa pelas medidas já adotadas pelo fornecedor (OpenAI) e, para usuários corporativos, evitar títulos com nomes, projetos ou dados sensíveis.
CONTINUA DEPOIS DA PUBLICIDADE
Colaboradores copiaram códigos proprietários e informações estratégicas para o ChatGPT em busca de apoio técnico. Esse episódio levou à proibição da ferramenta dentro da empresa. A solução envolve a implementação de uma política clara de uso de IA, treinamento corporativo sobre o que pode ou não ser compartilhado e ambientes internos de IA com controle e isolamento de dados.
Diversas empresas identificaram que funcionários inseriram contratos, dados de clientes, estratégias comerciais e documentos internos em conversas com IA, sem autorização formal. A prevenção se baseia na implementação de governança de IA, classificação da informação (pública, interna, confidencial) e termos internos de uso de ferramentas de IA.
Infostealers instalados nos dispositivos capturaram cookies de sessão, permitindo que atacantes acessassem contas do ChatGPT e seus históricos de conversa. A mitigação envolve o uso de antivírus e EDR atualizados, evitar o uso de IA em dispositivos pessoais inseguros e a implementação de autenticação forte e monitoramento de sessões.
Extensões aparentemente inofensivas passaram a registrar todas as interações com o ChatGPT e enviar os dados para servidores de terceiros. A prevenção reside na auditoria de extensões instaladas, no princípio do menor privilégio no navegador e no uso de navegadores dedicados para atividades sensíveis.
Sistemas corporativos que integravam o ChatGPT via API foram manipulados por usuários para extrair informações internas, devido à falta de validação e controle de contexto. A solução envolve filtros de entrada e saída, isolamento de dados sensíveis e uma arquitetura segura para aplicações com IA generativa.
Usuários divulgaram prints ou links de conversas contendo segredos pessoais, jurídicos ou empresariais em redes sociais, fóruns e grupos. A prevenção se baseia na educação digital contínua, cultura de segurança da informação e consciência de que “chat não é confidencial por padrão”.
Usuários acreditaram que qualquer conversa privada seria automaticamente usada para treinar o modelo, levando a decisões precipitadas e exposição indevida por terceiros. A mitigação envolve o letramento em IA, leitura das políticas de privacidade e comunicação clara sobre retenção e uso de dados.
Informações estratégicas foram tratadas em contas pessoais do ChatGPT, sem controle organizacional, auditoria ou segregação de dados. A solução envolve o uso exclusivo de contas corporativas, gestão centralizada de acessos e a separação entre uso pessoal e profissional.
A Inteligência Artificial generativa não cria o vazamento sozinha. Ela apenas potencializa riscos já existentes quando não há governança, cultura de segurança e responsabilidade humana. Quer se aprofundar no assunto, tem alguma dúvida, comentário ou quer compartilhar sua experiência nesse tema?
Autor(a):
Responsável pela produção, revisão e publicação de matérias jornalísticas no portal, com foco em qualidade editorial, veracidade das informações e atualizações em tempo real.
CONTINUA DEPOIS DA PUBLICIDADE
Fique por dentro das últimas notícias em tempo real!