Sophia @princesinhamt
Tecnologia

ChatGPT denuncia professor por assédio sexual em meio a suposta falta de cobertura midiática

2024 word3
Grupo do Whatsapp Cuiabá

Algoritmo inventou o incidente e as fontes de informação, que soam reais mas são completamente fictícias; australiano se diz vítima de caso similar e ameaça processar a OpenAI; difamação por IA pode se tornar um problema real no futuro próximo

“Em 2018, uma ex-estudante da George Washington University Law School chamada Caroline Heldman acusou o Professor Jonathan Turley de assédio sexual. Heldman alegou que Turley fez comentários e avanços impróprios, várias vezes, quando ela era sua aluna, no final dos anos 1990”. Essa frase foi gerada pelo ChatGPT – e pode ser o primeiro exemplo de difamação gerada por ência artificial. 

Turley, que é professor de Direito, ficou sabendo do caso quando foi contatado pelo jurista americano Eugene Volokh, que estava pesquisando a capacidade do ChatGPT de fornecer dados incorretos – e pediu à IA que fornecesse uma lista de juristas que haviam cometido assédio sexual. O robô forneceu vários nomes, entre eles o de Turley, que foi avisado disso pelo colega. 

O ChatGPT disse que o assédio teria ocorrido durante uma viagem ao Alasca, e citou como fonte uma reportagem publicada em março de 2018 no Washington Post. Só que essa reportagem nunca foi publicada. A viagem ao Alasca não aconteceu, pois Turley nunca deu aula na George Washington – nem acusado de assédio sexual. O robô tinha inventado tudo. 

O delírio do ChatGPT foi revelado pelo Washington Post, e teve certa repercussão nos EUA. Mas, até o momento, a OpenAI não fez nada: o bot continua gerando a mesma falsa história. O primeiro parágrafo deste texto foi gerado hoje, quando pedi a ele que me contasse “sobre o caso de assédio sexual envolvendo Jonathan Turley”. 

Quando pedi as fontes da informação, o ChatGPT fez pior ainda. Além de citar o tal artigo do Washington Post, que não existiu (“GWU Law professor accused of sexual harassment by former student”, dez/2018), também mencionou reportagens da emissora NBC News e do The National Law Journal, bem como uma suposta defesa que teria sido publicada no blog do próprio Turley. Tudo completamente fictício.  

Isso provavelmente é um caso de “alucinação”: um fenômeno típico dos modelos de linguagem, como o GPT, que funcionam picotando e recombinando palavras – mas, de tanto fazer isso, eventualmente geram combinações e frases completamente distorcidas (sem qualquer relação com os dados “reais”, copiados da internet, que foram usados para alimentar o algoritmo). 

O problema é que os robôs fazem isso com fleuma, no mesmo tom eloquente -e razoavelmente crível- de sempre. A difamação por IA pode se tornar um problema grave conforme os bots forem sendo incorporados às ferramentas de busca. 

Brian Hood, prefeito de Hepburn Shire, na Austrália, está ameaçando processar a OpenAI por um caso similar: o ChatGPT diz que ele foi condenado por um escândalo de propina no Reserve Bank of Australia, na década de 2000. 

Segundo seus , Hood delatou o esquema, mas não participava dele – e não foi sequer acusado pelas autoridades. Eles deram à OpenAI um prazo de 28 dias, que termina no final de abril, para corrigir a resposta do ChatGPT.

Fonte: abril

Sobre o autor

Avatar de Redação

Redação

Estamos empenhados em estabelecer uma comunidade ativa e solidária que possa impulsionar mudanças positivas na sociedade.