Raios-X Falsos de IA Ameaçam Radiologistas e Diagnósticos em 2026!
Raios-X falsos criados por IA assustam radiologistas e inteligência artificial! 😱 Novo estudo revela perigo: imagens sintéticas podem enganar profissionais e causar caos em diagnósticos. Saiba mais!
Falsos Raios-X Gerados por IA Podem Enganar Radiologistas e Ferramentas de Inteligência Artificial
Um estudo recente revelou um perigo crescente no campo da radiologia: imagens falsas de raios-X, criadas por inteligência artificial, podem ser tão convincentes que enganam tanto radiologistas experientes quanto as próprias ferramentas de IA. A pesquisa, conduzida por Dr.
CONTINUA DEPOIS DA PUBLICIDADE
Mickael Tordjman da Escola de Medicina Icahn no Monte Sinai, em Nova York, examinou 264 imagens de raios-X, metade das quais foram geradas por modelos de IA como ChatGPT e RoentGen.
Resultados Surpreendentes na Identificação de Imagens Falsas
Quando os radiologistas não sabiam do propósito específico do estudo, apenas 41% conseguiram identificar espontaneamente as imagens sintéticas. No entanto, após receberem informações sobre o conjunto de dados contendo imagens artificiais, a precisão média dos radiologistas na diferenciação entre raios-X reais e sintéticos aumentou significativamente para 75%.
Essa mudança demonstra a vulnerabilidade inerente ao uso de ferramentas de IA sem a devida cautela.
Riscos e Implicações da Manipulação de Diagnósticos
Dr. Tordjman alertou sobre os riscos de ter raios-X falsos realistas o suficiente para enganar os profissionais. Ele explicou que “criar uma vulnerabilidade de alto risco para litígios fraudulentos se, por exemplo, uma fratura fabricada puder ser indistinguível de uma real”.
Leia também:
Samsung Revoluciona Linha Intermediária com A57 e A37 5G: IA e Resistência!
Meta e Google sob ataque: Júri condena por danos a adolescentes!
Brasil Revolucionário: F-39 Gripen Desempenha Grandeza em Primeiro Voo Nacional!
CONTINUA DEPOIS DA PUBLICIDADE
Além disso, ele mencionou o potencial de hackers injetarem imagens sintéticas em redes hospitalares, manipulando diagnósticos de pacientes ou causando caos clínico generalizado, comprometendo a confiabilidade dos registros médicos digitais.
Desempenho de Modelos de Linguagem na Detecção de Falsificações
A pesquisa também avaliou o desempenho de vários modelos de linguagem na detecção de imagens falsas. Os resultados mostraram que o GPT-4o, o modelo que criou os deepfakes, apresentou uma precisão variável, entre 57% e 85%. Embora tenha identificado mais imagens falsas em comparação com outros LLMs, o desempenho ainda não era suficiente para garantir a detecção completa.
Necessidade de Salvaguardas Digitais e Monitoramento Contínuo
Os pesquisadores enfatizaram a necessidade de implementar salvaguardas digitais para distinguir imagens reais de falsas e evitar adulterações. Eles sugeriram o uso de marcas d’água invisíveis que incorporam a propriedade. “Potencialmente, estamos vendo apenas a ponta do iceberg”, disse Tordjman, ressaltando a importância de estabelecer conjuntos de dados educacionais e ferramentas de detecção agora, para garantir a segurança e a precisão diagnóstica no futuro.
Autor(a):
redacao
Responsável pela produção, revisão e publicação de matérias jornalísticas no portal, com foco em qualidade editorial, veracidade das informações e atualizações em tempo real.