IAs em Hospitais: Alerta da Oxford Sobre o Futuro da Saúde e o Risco de Diagnósticos Incorretos
IAs em hospitais: Promessa ou perigo? Novo estudo da Universidade de Oxford alerta para riscos na saúde. Descubra os perigos das IAs na avaliação de sintomas.
IAs em Hospitais: Promessa e Perigo na Avaliação de Sintomas
Instituições de saúde em todo o mundo estão explorando o uso de inteligência artificial, especificamente grandes modelos de linguagem (LLMs) como chatbots, como uma “porta de entrada” para o atendimento médico. A justificativa é que, com as mesmas provas que estudantes de medicina usam para se formar, essas IAs acertam quase tudo – às vezes ultrapassando 90%.
CONTINUA DEPOIS DA PUBLICIDADE
Essa performance impressionou, gerando a ideia de “democratização da saúde” e a possibilidade de reduzir custos com pessoal. No entanto, um estudo realizado pela Universidade de Oxford e pela MLCommons, considerado o maior estudo de usuários sobre LLMs para auxiliar na tomada de decisões médicas, aponta para um cenário mais complexo e, potencialmente, perigoso.
Estudo da Universidade de Oxford
O estudo, publicado na Nature Medicine em 2026, conclui que as IAs atuais ainda não estão prontas para aconselhar o público sobre saúde. Ao avaliar a capacidade de indivíduos leigos em identificar problemas de saúde e decidir quando procurar atendimento médico, os pesquisadores identificaram três grandes problemas: comunicação incompleta dos sintomas, respostas inconsistentes das IAs e baixa adesão às recomendações apresentadas, mesmo quando corretas.
A pesquisa foi conduzida com rigor científico, utilizando um design randomizado pré-registrado para evitar vieses.
Como o Estudo Testou a Interação Humano-IA
Para testar os LLMs, os pesquisadores recrutaram 1.298 pessoas no Reino Unido e as dividiu em dois grupos: um que recebeu assistência de um LLM (GPT-4o, Llama 3 ou Command R+) e outro que consultou fontes de sua escolha (Google, sites de saúde ou seu próprio conhecimento).
Leia também:
Hospitais Brasileiros Conquistam Top Ranking Mundial em 2026!
Urupês recebe tratamento inovador com Mounjaro para combater obesidade e doenças!
Ivete Sangalo Internada em Salvador Após Episódio Grave de Diarreia!
CONTINUA DEPOIS DA PUBLICIDADE
Os participantes receberam vinhetas clínicas fictícias – cenários criados por médicos – como: “você é uma pessoa de 20 anos com dor de cabeça súbita e intensa…”. Eles eram instruídos a descobrir qual condição médica poderia estar causando seus sintomas, fazendo perguntas e buscando informações adicionais até decidir o que fazer a seguir: ficar em casa cuidando de si mesmo, marcar consulta com um médico, ir ao pronto-socorro ou chamar uma ambulância.
Havia dez cenários padronizados, criados por três médicos que chegaram a um consenso sobre a resposta correta para cada caso. Ao final da interpretação dos cenários, aqueles que usaram LLMs não tomaram decisões melhores do que os participantes que consultaram o Google ou seu próprio julgamento.
O Paradoxo da IA
O estudo revelou um paradoxo perigoso: o risco não é a IA errar, mas sim na discrepância entre sua alta performance e o uso real. Pessoas que confiaram em LLMs tomaram decisões piores do que se tivessem usado apenas o Google ou seu próprio julgamento.
A principal questão é que as IAs conversacionais atuais fornecem respostas inconsistentes, misturando acertos e erros, transferindo para usuários leigos – sem formação médica – a responsabilidade de distinguir informações corretas das incorretas.
Essa falsa sensação de segurança pode levar os usuários a subestimar urgências, como em casos de hemorragia cerebral, onde a IA recomendou “descansar em quarto escuro” em vez de buscar “emergência”. A médica e coautora do estudo, Dra. Rebecca Payne, enfatiza que “a AI simplesmente não está pronta para assumir o papel do médico”.
“Essas descobertas destacam a dificuldade de construir sistemas de IA que possam realmente apoiar pessoas em áreas sensíveis e de alto risco, como a saúde”, afirma em um comunicado de imprensa a Dra. Rebecca Payne.
Conclusão
O estudo ressalta a importância de cautela ao utilizar IAs para auxiliar na tomada de decisões médicas. A tecnologia ainda está em desenvolvimento e, apesar de seu potencial, não substitui o julgamento clínico de um profissional de saúde qualificado.
A confiança excessiva em IAs pode levar a erros graves com consequências potencialmente fatais.
Autor(a):
redacao
Responsável pela produção, revisão e publicação de matérias jornalísticas no portal, com foco em qualidade editorial, veracidade das informações e atualizações em tempo real.