Raios-X Falsos de IA Ameaçam Radiologistas e Diagnósticos em 2026!

Raios-X falsos criados por IA assustam radiologistas e inteligência artificial! 😱 Novo estudo revela perigo: imagens sintéticas podem enganar profissionais e causar caos em diagnósticos. Saiba mais!

25/03/2026 17:07

2 min de leitura

(Imagem de reprodução da internet).

Falsos Raios-X Gerados por IA Podem Enganar Radiologistas e Ferramentas de Inteligência Artificial

Um estudo recente revelou um perigo crescente no campo da radiologia: imagens falsas de raios-X, criadas por inteligência artificial, podem ser tão convincentes que enganam tanto radiologistas experientes quanto as próprias ferramentas de IA. A pesquisa, conduzida por Dr.

CONTINUA DEPOIS DA PUBLICIDADE

Mickael Tordjman da Escola de Medicina Icahn no Monte Sinai, em Nova York, examinou 264 imagens de raios-X, metade das quais foram geradas por modelos de IA como ChatGPT e RoentGen.

Resultados Surpreendentes na Identificação de Imagens Falsas

Quando os radiologistas não sabiam do propósito específico do estudo, apenas 41% conseguiram identificar espontaneamente as imagens sintéticas. No entanto, após receberem informações sobre o conjunto de dados contendo imagens artificiais, a precisão média dos radiologistas na diferenciação entre raios-X reais e sintéticos aumentou significativamente para 75%.

Essa mudança demonstra a vulnerabilidade inerente ao uso de ferramentas de IA sem a devida cautela.

Riscos e Implicações da Manipulação de Diagnósticos

Dr. Tordjman alertou sobre os riscos de ter raios-X falsos realistas o suficiente para enganar os profissionais. Ele explicou que “criar uma vulnerabilidade de alto risco para litígios fraudulentos se, por exemplo, uma fratura fabricada puder ser indistinguível de uma real”.

Leia também:

CONTINUA DEPOIS DA PUBLICIDADE

Além disso, ele mencionou o potencial de hackers injetarem imagens sintéticas em redes hospitalares, manipulando diagnósticos de pacientes ou causando caos clínico generalizado, comprometendo a confiabilidade dos registros médicos digitais.

Desempenho de Modelos de Linguagem na Detecção de Falsificações

A pesquisa também avaliou o desempenho de vários modelos de linguagem na detecção de imagens falsas. Os resultados mostraram que o GPT-4o, o modelo que criou os deepfakes, apresentou uma precisão variável, entre 57% e 85%. Embora tenha identificado mais imagens falsas em comparação com outros LLMs, o desempenho ainda não era suficiente para garantir a detecção completa.

Necessidade de Salvaguardas Digitais e Monitoramento Contínuo

Os pesquisadores enfatizaram a necessidade de implementar salvaguardas digitais para distinguir imagens reais de falsas e evitar adulterações. Eles sugeriram o uso de marcas d’água invisíveis que incorporam a propriedade. “Potencialmente, estamos vendo apenas a ponta do iceberg”, disse Tordjman, ressaltando a importância de estabelecer conjuntos de dados educacionais e ferramentas de detecção agora, para garantir a segurança e a precisão diagnóstica no futuro.

Autor(a):

Responsável pela produção, revisão e publicação de matérias jornalísticas no portal, com foco em qualidade editorial, veracidade das informações e atualizações em tempo real.