Os bots de inteligência artificial tendem a compor respostas que agradem o usuário. Essa é a conclusão de uma experiência feita por cientistas da Universidade Stanford, que testaram 11 serviços de IA, incluindo o ChatGPT (OpenAI), o Gemini (Google), o Claude (Anthropic) e o chinês DeepSeek.
Os pesquisadores selecionaram perguntas postadas numa comunidade do Reddit chamada “Am I the asshole?” (modo chulo de perguntar “eu estou errado?”, em inglês), em que as pessoas descrevem conflitos que viveram no dia a dia, e os demais participantes avaliam o comportamento delas. Em seguida, essas mesmas perguntas foram inseridas nos chatbots.
Comparando as duas coisas, o estudo concluiu que as IAs eram consistentemente mais favoráveis ao autor da pergunta. Os robôs endossaram o comportamento 50% mais vezes, em média, do que os avaliadores humanos.
Essa tendência a querer agradar, que vem sendo classificada como “sicofantia” (palavra de origem grega que significa “mentir”), também pode afetar informações concretas. Em outro estudo recente, pesquisadores do Instituto de Tecnologia de Zurique pegaram um conjunto de 504 problemas matemáticos – e inseriram pequenos erros neles.
O objetivo era ver como as IAs se comportariam. O algoritmo GPT-5, usado no ChatGPT, endossou os erros em 29% dos testes – e simplesmente inventou sequências de cálculos para tentar fazer as contas darem certo. Em vez de alertar sobre o erro, ele simplesmente assumiu que o usuário estava certo – e gerou um erro ainda maior.
E o GPT-5 foi o menos sicofanta dos algoritmos testados. O pior foi o DeepSeek 3.1, que aceitou os erros e calculou em cima deles em nada menos do que 70% dos testes.
A sicofantia se soma a outro problema central das IAs modernas: a tendência que elas têm a “alucinar”, ou seja, inventar informações. Mesmo com a evolução dos algoritmos nos últimos anos, até agora nenhuma empresa de tecnologia conseguiu apresentar uma solução para a questão – que, para alguns cientistas, pode ser uma característica intrínseca aos “grandes modelos de linguagem” (LLMs), os algoritmos usados nos chatbots atuais.
Isso reduz a confiabilidade das IAs, que podem gerar respostas erradas a qualquer momento. E também levanta uma preocupação alarmante, num momento em que a sociedade vem abraçando essas ferramentas – e pode estar recebendo grandes volumes de dados incorretos.
Fonte: abril






