Google remove resumos de IA com erros em exames de função hepática, aponta The Guardian

Google remove resumos de IA com dados imprecisos sobre exames de função hepática, apuração do The Guardian revela. IA apresentava informações incorretas sobre testes

2 min de leitura

(Imagem de reprodução da internet).

O Google retirou alguns de seus resumos gerados por inteligência artificial relacionados a temas de saúde após uma investigação do jornal The Guardian. A pesquisa revelou que os usuários estavam sendo expostos a informações imprecisas, especialmente em relação a exames médicos.

CONTINUA DEPOIS DA PUBLICIDADE

Os chamados “AI Overviews”, que apareciam no topo dos resultados de buscas, apresentavam dados incorretos sobre testes de função hepática.

Exames de Função Hepática e Riscos

Segundo o jornal britânico, um dos exemplos mais graves envolvia pesquisas sobre “qual a faixa normal para exames de sangue do fígado”. O Google exibia uma lista de números sem contexto, sem considerar fatores como idade, sexo, etnia ou nacionalidade, que podem influenciar os resultados.

CONTINUA DEPOIS DA PUBLICIDADE

Especialistas consultados pelo The Guardian consideraram a situação “perigosa e alarmante”, pois os valores apresentados como “normais” pela IA podem ser diferentes dos parâmetros médicos estabelecidos.

Consequências Potenciais

Pessoas com doenças hepáticas graves poderiam acreditar que estão saudáveis e, consequentemente, deixar de comparecer a consultas ou exames de acompanhamento. A questão destacava a necessidade de interpretação especializada para exames de função hepática, e não apenas a apresentação de números.

CONTINUA DEPOIS DA PUBLICIDADE

LEIA TAMBÉM!

Resposta do Google e Persistência do Problema

Após a investigação, o Google removeu os resumos de IA para buscas sobre o tema específico. A empresa informou que não comenta remoções individuais no mecanismo de busca. Em comunicado, afirmou que, em casos de omissão de contexto, trabalha para realizar melhorias e tomar medidas de acordo com suas políticas, quando apropriado.

Reações e Preocupações Contínuas

Vanessa Hebditch, diretora de comunicação e políticas da British Liver Trust, elogiou a ação, mas ressaltou que o problema não foi completamente resolvido. Ela enfatizou que algumas variações nas buscas ainda levam a resumos equivocados de IA.

A especialista alertou que exames de função hepática precisam ser interpretados por especialistas, e não reduzidos a uma lista de números. O uso de negrito em resultados pode induzir usuários a conclusões erradas.

Outros Temas Sensíveis e Ações do Google

A investigação também identificou informações inconsistentes sobre outros temas sensíveis, como câncer e saúde mental. O Google afirmou que os resumos incluem links para fontes consideradas confiáveis e alertas quando é necessário buscar atendimento médico.

A equipe interna de médicos da empresa analisou as informações e concluiu que, em muitos casos, elas não estavam equivocadas. A ferramenta passa por avaliações constantes.

Sair da versão mobile