Atitude Popular

IA do Google comete erro médico grave

Da Redação

Um modelo de IA médica da Google descreveu uma estrutura cerebral inexistente como se fosse verdadeira, levantando risco à segurança de pacientes e questionamentos sobre o uso de inteligência artificial na medicina.

O modelo de inteligência artificial Med‑Gemini, desenvolvido pela Google para aplicações médicas, cometeu um erro grave ao mencionar em um artigo científico de 2024 uma estrutura chamada “basilar ganglia” — um órgão que não existe. A confusão surgia da combinação equivocada entre os termos “basal ganglia” (parte legítima do cérebro responsável por controle motor e aprendizagem) e “basilar artery” (artéria cerebelar), resultando em uma afirmação médica potencialmente perigosa.

O neurologista e pesquisador Bryan Moore identificou a falha e alertou Google publicamente. A empresa respondeu silenciosamente atualizando um post em seu blog para corrigir o termo, mas manteve o erro no artigo científico original, alegando tratar-se apenas de “um erro de digitação”.

Especialistas em tecnologia médica alertam para o perigo desse tipo de manifestação da IA, conhecida como “hallucination” — quando o modelo apresenta fatos plausíveis, mas errados. Em aplicações clínicas, tais erros podem induzir diagnósticos incorretos e afetar decisões terapêuticas. Clérigos médicos enfatizam a necessidade de revisão humana rigorosa e implantação de sistemas de detecção de inconsistências automáticas.

Embora a Google defenda os avanços do Med‑Gemini e seus ganhos em performance técnica, a comunidade médica considera inaceitável a persistência do erro sem revisão editorial formal no artigo revisado. O incidente expõe limites da tecnologia em um domínio onde precisão e responsabilidade são vitais.

O caso também levanta questões sobre o ritmo de adoção de IA em ambientes clínicos: ainda que promissora, a ferramenta demonstra vulnerabilidades que tornam indispensável a supervisão de profissionais e padrões regulatórios mais rigorosos.