Saúde

Teste revela: IA do Google fornece informações de saúde perigosas e imprecisas

Grupo do Whatsapp Cuiabá
2026 word3



  • De um ano e meio para cá, as buscas no Google passaram a incluir uma resposta por escrito, redigida por IA. Essa função, que se chama AI Overviews, ajudou a compensar a perda de eficácia do buscador (que foi sendo soterrado por links patrocinados e páginas de SEO predatório). Ela pode ser bem útil. Mas também pode fornecer respostas com informações erradas, que colocam a saúde do usuário em risco.

    Foi o que revelou uma investigação do jornal inglês The Guardian, cujos jornalistas fizeram buscas sobre algumas questões de saúde e pediram que médicos e especialistas analisassem os resultados. Eles classificaram várias das respostas fornecidas pelo AI Overviews como “completamente erradas”, “alarmantes” e “realmente perigosas”.   

    Numa delas, por exemplo, a IA do Google disse que pessoas com câncer de pâncreas devem evitar comidas gordurosas. Segundo especialistas ouvidos pelo Guardian, isso é exatamente o contrário da recomendação médica, e pode agravar a doença.

    Em outro caso, o robô forneceu dados errados sobre testes hepáticos, que poderiam levar pessoas com doença no fígado a acreditar que eram saudáveis. Numa busca sobre “sintomas de câncer vaginal”, a IA recomendou um tipo de exame inadequado – e, em pesquisas sobre transtornos alimentares e doenças mentais, deu sugestões consideradas “muito perigosas” (o Guardian não relatou quais).  

    Siga

    Há duas explicações possíveis. O algoritmo do AI Overviews pode ter sido alimentado com informações incorretas, ou pode ter “alucinado” – um fenômeno típico dos “grandes modelos de linguagem” (LLMs), como o ChatGPT e o Gemini, que às vezes inventam coisas (isso é um efeito colateral da recombinação de tokens que os robôs executam para gerar respostas).  

    Questionado pelo jornal inglês, o Google disse que faz “investimentos significativos” na qualidade do AI Overviews, “especialmente em tópicos como saúde”, e afirmou que “a grande maioria [das respostas] provê informação precisa”.    

    Uma semana após a revelação do caso, o Guardian refez as buscas – e descobriu que o Google havia desabilitado o AI Overviews em duas das pesquisas utilizadas nos testes. Mas o jornal também constatou que, se essas buscas fossem digitadas de modo ligeiramente diferente, as respostas geradas por IA voltavam a aparecer. 

     

     

    Fonte: abril

    Sobre o autor

    Avatar de Redação

    Redação

    Estamos empenhados em estabelecer uma comunidade ativa e solidária que possa impulsionar mudanças positivas na sociedade.