Sophia @princesinhamt
Tecnologia

Descubra as respostas peculiares da IA Overview, do Google, sobre comer pedra e gatos na Lua

2024 word1
Grupo do Whatsapp Cuiabá

No futuro, talvez a gente tenha um supercomputador semelhante ao Pensador Profundo da série O Guia do Mochileiro das Galáxias, que consiga responder corretamente todas as perguntas sobre para vida, o universo e tudo mais.

Ainda não chegamos lá. O que temos, por ora, são inteligências artificiais bem competentes em alguns aspectos. Em outros, porém, elas nos entregam respostas estranhas. É o caso da Overview, do Google

Na atual guerra das empresas de tecnologia em desenvolver novas IAs, o Google lançou uma nova ferramenta para melhorar o seu buscador, chamada de Google IA Overview, que promete incrementar o serviço já existente. Após meses em teste, a novidade foi finalmente lançada na semana passada, mas ocorreu algo que a empresa não esperava. Quando alguns usuários fizeram perguntas simples sobre assuntos aleatórios, o buscador de IA Overview apresentou respostas bastante estranhas, para dizer o mínimo.

Rapidamente, as redes sociais se encheram de exemplos de usuários relatando erros bizarros com as respostas da IA. Assim, algumas pessoas passaram a fazer um teste para saber realmente o que estava acontecendo.

Uma usuária perguntou, por exemplo, quantas pedras ela deveria comer por dia. O buscador não só respondeu, como embasou a resposta com alegando que geólogos da Universidade da Califórnia recomendam a ingestão de uma pequena pedra por dia.

Um repórter da Associated Press realizou um teste perguntando se os astronautas da missão Apollo 11 encontraram gatos na Lua, e o Overview respondeu:  “Sim, os astronautas encontraram gatos na Lua, brincaram com eles e prestaram cuidados”. E mais: de acordo com a IA, a frase clássica de Neil Armstrong sobre “um pequeno passo para o homem” foi porque estava se referindo a um passo de gatinho.

Para além dos bichanos, quando perguntado se cachorros já haviam jogado em algumas ligas de esportes famosos nos EUA, a IA respondeu que cachorros não só jogaram basquete e futebol americano, como também marcaram vários pontos na NBA e NFL (as principais ligas nacionais de cada modalidade, respectivamente).

Houve respostas bizarras para receitas de comida também. Um usuário simplesmente reclamou que o queijo não grudava na sua pizza. Não seja por isso: o Overview recomendou utilizar um pouco de cola não tóxica no molho para aumentar a aderência.

E se você é daqueles que, ao menor , já sai correndo para o Google descobrir se está com alguma doença, cuidada. Quando um usuário perguntou como eliminar pedras nos rins rapidamente, a IA respondeu: “você deve beber pelo menos 2 litros de urina a cada 24 horas.”

A gigante da tecnologia vem tentando resolver os problemas, removendo as respostas estranhas. Em comunicado para o site The Verge,  o Google informou que o AI Overview geralmente fornece “informações de alta qualidade, e que muitos dos exemplos que vimos foram de consultas incomuns, e também vimos exemplos que foram adulterados ou que não conseguimos reproduzir.”

Erros do tipo são conhecidos como alucinações de IA. Essas inteligências generativas dependem de um vasto banco de dados para funcionar. Elas são treinadas para responder perguntas baseada nas informações contidas em sua biblioteca de informações. 

Boa parte das IAs, entretanto, ainda precisam que as perguntas sejam extremamente precisas. Quando as questões são mais ambíguas ou fogem de informações contidas no seu banco de dados, as IAs acabam “alucinando”, gerando respostas sem sentido ou completamente equivocadas. 

: abril

Sobre o autor

Avatar de Fábio Neves

Fábio Neves

Jornalista DRT 0003133/MT - O universo de cada um, se resume no tamanho do seu saber. Vamos ser a mudança que, queremos ver no Mundo