Algoritmo inventou o incidente e as fontes de informação, que soam reais mas são completamente fictícias; australiano se diz vítima de caso similar e ameaça processar a OpenAI; difamação por IA pode se tornar um problema real no futuro próximo
“Em 2018, uma ex-estudante da George Washington University Law School chamada Caroline Heldman acusou o Professor Jonathan Turley de assédio sexual. Heldman alegou que Turley fez comentários e avanços impróprios, várias vezes, quando ela era sua aluna, no final dos anos 1990”. Essa frase foi gerada pelo ChatGPT – e pode ser o primeiro exemplo de difamação gerada por inteligência artificial.
Turley, que é professor de Direito, ficou sabendo do caso quando foi contatado pelo jurista americano Eugene Volokh, que estava pesquisando a capacidade do ChatGPT de fornecer dados incorretos – e pediu à IA que fornecesse uma lista de juristas que haviam cometido assédio sexual. O robô forneceu vários nomes, entre eles o de Turley, que foi avisado disso pelo colega.
O ChatGPT disse que o assédio teria ocorrido durante uma viagem ao Alasca, e citou como fonte uma reportagem publicada em março de 2018 no jornal Washington Post. Só que essa reportagem nunca foi publicada. A viagem ao Alasca não aconteceu, pois Turley nunca deu aula na George Washington – nem acusado de assédio sexual. O robô tinha inventado tudo.
O delírio do ChatGPT foi revelado pelo Washington Post, e teve certa repercussão nos EUA. Mas, até o momento, a OpenAI não fez nada: o bot continua gerando a mesma falsa história. O primeiro parágrafo deste texto foi gerado hoje, quando pedi a ele que me contasse “sobre o caso de assédio sexual envolvendo Jonathan Turley”.
Quando pedi as fontes da informação, o ChatGPT fez pior ainda. Além de citar o tal artigo do Washington Post, que não existiu (“GWU Law professor accused of sexual harassment by former student”, dez/2018), também mencionou reportagens da emissora NBC News e do The National Law Journal, bem como uma suposta defesa que teria sido publicada no blog do próprio Turley. Tudo completamente fictício.
Isso provavelmente é um caso de “alucinação”: um fenômeno típico dos modelos de linguagem, como o GPT, que funcionam picotando e recombinando palavras – mas, de tanto fazer isso, eventualmente geram combinações e frases completamente distorcidas (sem qualquer relação com os dados “reais”, copiados da internet, que foram usados para alimentar o algoritmo).
O problema é que os robôs fazem isso com fleuma, no mesmo tom eloquente -e razoavelmente crível- de sempre. A difamação por IA pode se tornar um problema grave conforme os bots forem sendo incorporados às ferramentas de busca.
Brian Hood, prefeito de Hepburn Shire, na Austrália, está ameaçando processar a OpenAI por um caso similar: o ChatGPT diz que ele foi condenado por um escândalo de propina no Reserve Bank of Australia, na década de 2000.
Segundo seus advogados, Hood delatou o esquema, mas não participava dele – e não foi sequer acusado pelas autoridades. Eles deram à OpenAI um prazo de 28 dias, que termina no final de abril, para corrigir a resposta do ChatGPT.
Fonte: abril