Pacientes Usam IA para Diagnósticos, Gerando Expectativas e Preocupações

Pacientes usam IA como ChatGPT para obter diagnósticos, gerando expectativas e preocupações. Riscos e erros evidenciados em casos recentes.

04/12/2025 9:35

2 min de leitura

(Imagem de reprodução da internet).

Pacientes Usam IA para Diagnósticos, Gerando Expectativas e Preocupações

Um número crescente de pacientes está recorrendo a sistemas de inteligência artificial, como o ChatGPT, para obter informações sobre sua saúde. Essa tendência envolve o compartilhamento de dados médicos detalhados, incluindo exames laboratoriais, laudos, imagens e históricos clínicos, buscando respostas rápidas e autônomas sobre seus sintomas e possíveis diagnósticos.

CONTINUA DEPOIS DA PUBLICIDADE

Vários casos recentes evidenciam tanto o potencial quanto os riscos associados a essa prática, que já é utilizada por milhões de pessoas globalmente.

Em um caso notável, um paciente conseguiu identificar um bloqueio arterial grave após receber orientação do ChatGPT, o que o levou a solicitar um exame mais aprofundado. Em contrapartida, outra situação envolveu uma jovem que recebeu um alarme falso de possível tumor, decorrente da análise realizada pela IA.

Esses exemplos ilustram a complexidade da situação e a necessidade de cautela.

Especialistas em saúde alertam que, embora esses sistemas de IA possam oferecer respostas convincentes, a precisão dos diagnósticos realizados por eles ainda é limitada, com taxas de erro consideráveis quando utilizados sem a supervisão de um profissional médico qualificado.

Leia também:

CONTINUA DEPOIS DA PUBLICIDADE

Pesquisas indicam que chatbots frequentemente acertam menos da metade dos diagnósticos quando operados por indivíduos sem formação técnica específica.

Além dos riscos clínicos, a prática levanta sérias preocupações relacionadas à privacidade dos dados de saúde. Os dados enviados a plataformas como o ChatGPT não estão sujeitos às mesmas proteções legais da HIPAA, a norma federal dos Estados Unidos que regula a confidencialidade de informações médicas.

Isso significa que os usuários podem estar renunciando a essas proteções e permitindo que seus dados contribuam para o treinamento de novos modelos de IA.

A segurança da informação ainda depende das políticas de privacidade implementadas pelas empresas. Apesar das salvaguardas adotadas pela OpenAI, por exemplo, ainda existe a possibilidade de que informações confidenciais sejam reutilizadas ou analisadas.

Embora os usuários possam optar por não permitir o uso de seus dados para treinar futuros modelos, a adesão a essa opção é baixa.

Mesmo com a remoção de nomes ou metadados, detalhes clínicos podem ser rastreados. Diante desse cenário, profissionais de saúde e pesquisadores recomendam uma abordagem cautelosa. A inteligência artificial pode auxiliar na interpretação de resultados, mas não substitui a avaliação clínica completa e a expertise de um médico.

Autor(a):

Responsável pela produção, revisão e publicação de matérias jornalísticas no portal, com foco em qualidade editorial, veracidade das informações e atualizações em tempo real.