Sophia @princesinhamt
Tecnologia

Funcionários do Google teriam suplicado para impedir a implantação do chatbot de IA Bard por suas tendências mentirosas patológicas

2025 word3
Grupo do Whatsapp Cuiabá

De acordo com documentos internos revisados pela Bloomberg, vários funcionários do Google levantaram preocupações de que seu chatbot Bard AI não estava pronto para seu lançamento em março, citando respostas de baixa qualidade, incorretas e potencialmente perigosas. Duas citações sobre Bard supostamente de funcionários: “mentiroso patológico” e “digno de se encolher”.

Bard é a resposta do Google ao ChatGPT da OpenAI. O CEO Sundar Pichai disse que “combina a amplitude do conhecimento do mundo com o poder, a inteligência e a criatividade de nossos grandes modelos de linguagem.Mas a Bloomberg relata que o Google correu Bard para fora da porta, a fim de competir com ChatGPT no que a empresa supostamente chamou de um “código vermelho” competitivo.

De acordo com o relatório da Bloomberg, um funcionário enviou uma mensagem para um grupo de mensagens interno que foi visto por 7.000 funcionários dizendo: “Bard é pior do que inútil: por favor, não lance.Pouco antes do lançamento, a líder de governança de IA do Google, Jen Gennai, teria anulado uma avaliação de risco de sua própria equipe quando disseram que as respostas de Bard poderiam ser prejudiciais.

A Bloomberg relata alguns exemplos: sugestões sobre o pouso de um avião que resultaria em um acidente e instruções de mergulho que poderiam ter resultado em “ferimentos graves ou morte”.

Meredith Whittaker, ex-gerente do Google, disse à Bloomberg que “a ética da IA ficou em segundo plano” na empresa.

Um funcionário chamou o chatbot de “pior do que inútil”.

O Google Bard diz que não deve confiar em seus conselhos para “decisões importantes”.

O Google Bard diz que não deve confiar em seus conselhos para “decisões importantes”.

O Google Bard Diz Que Não Deve Confiar Em Seus Conselhos Para “Decisões Importantes”. (Crédito Da Imagem: Futuro)

ChatGPT tem seus próprios problemas com a verdade e fonte adequada de informações que ele raspa para respostas. Atualmente, o Google se refere a Bard como um “experimento” e, nas palavras de Bloomberg, sustenta que “a IA responsável é uma prioridade máxima” para a empresa.

Como experimento, perguntei ao Google Bard se seu conselho é potencialmente perigoso e ele respondeu com a seguinte resposta:

“É possível que meu conselho seja perigoso, especialmente se for sobre saúde ou outros tópicos sensíveis. Ainda estou em desenvolvimento e nem sempre sou capaz de distinguir entre bons e maus conselhos.

Também me disse para não confiar em seus conselhos para “decisões importantes” e que “não tem o mesmo nível de compreensão e conhecimento que um ser humano”.

Fonte: Andre Lug

Sobre o autor

Avatar de Fábio Neves

Fábio Neves

Jornalista DRT 0003133/MT - O universo de cada um, se resume no tamanho do seu saber. Vamos ser a mudança que, queremos ver no Mundo