Pacientes Usam IA para Diagnósticos, Gerando Expectativas e Preocupações

Pacientes usam IA como ChatGPT para obter diagnósticos, gerando expectativas e preocupações. Riscos e erros evidenciados em casos recentes.

2 min de leitura

(Imagem de reprodução da internet).

Pacientes Usam IA para Diagnósticos, Gerando Expectativas e Preocupações

Um número crescente de pacientes está recorrendo a sistemas de inteligência artificial, como o ChatGPT, para obter informações sobre sua saúde. Essa tendência envolve o compartilhamento de dados médicos detalhados, incluindo exames laboratoriais, laudos, imagens e históricos clínicos, buscando respostas rápidas e autônomas sobre seus sintomas e possíveis diagnósticos.

CONTINUA DEPOIS DA PUBLICIDADE

Vários casos recentes evidenciam tanto o potencial quanto os riscos associados a essa prática, que já é utilizada por milhões de pessoas globalmente.

Em um caso notável, um paciente conseguiu identificar um bloqueio arterial grave após receber orientação do ChatGPT, o que o levou a solicitar um exame mais aprofundado. Em contrapartida, outra situação envolveu uma jovem que recebeu um alarme falso de possível tumor, decorrente da análise realizada pela IA.

CONTINUA DEPOIS DA PUBLICIDADE

Esses exemplos ilustram a complexidade da situação e a necessidade de cautela.

Especialistas em saúde alertam que, embora esses sistemas de IA possam oferecer respostas convincentes, a precisão dos diagnósticos realizados por eles ainda é limitada, com taxas de erro consideráveis quando utilizados sem a supervisão de um profissional médico qualificado.

CONTINUA DEPOIS DA PUBLICIDADE

LEIA TAMBÉM!

Pesquisas indicam que chatbots frequentemente acertam menos da metade dos diagnósticos quando operados por indivíduos sem formação técnica específica.

Além dos riscos clínicos, a prática levanta sérias preocupações relacionadas à privacidade dos dados de saúde. Os dados enviados a plataformas como o ChatGPT não estão sujeitos às mesmas proteções legais da HIPAA, a norma federal dos Estados Unidos que regula a confidencialidade de informações médicas.

Isso significa que os usuários podem estar renunciando a essas proteções e permitindo que seus dados contribuam para o treinamento de novos modelos de IA.

A segurança da informação ainda depende das políticas de privacidade implementadas pelas empresas. Apesar das salvaguardas adotadas pela OpenAI, por exemplo, ainda existe a possibilidade de que informações confidenciais sejam reutilizadas ou analisadas.

Embora os usuários possam optar por não permitir o uso de seus dados para treinar futuros modelos, a adesão a essa opção é baixa.

Mesmo com a remoção de nomes ou metadados, detalhes clínicos podem ser rastreados. Diante desse cenário, profissionais de saúde e pesquisadores recomendam uma abordagem cautelosa. A inteligência artificial pode auxiliar na interpretação de resultados, mas não substitui a avaliação clínica completa e a expertise de um médico.

Sair da versão mobile