Sophia @princesinhamt
Notícias

Advogado se envolve em polêmica ao usar ChatGPT em sua defesa e ser acusado de inventar casos inexistentes com chatbots.

2024 word3
Grupo do Whatsapp Cuiabá
deu ruim advogado usou chatgpt chatbot inventou casos nao existem

Via @uoloficial | Um advogado nos EUA usou o ChatGPT para ajudar na argumentação no recurso de um cliente. Ele, especificamente, buscou por casos semelhantes ao que estava defendendo para sustentar sua tese, e o chatbot retornou vários resultados. 

O problema é que todos esses casos foram inventados, e os advogados envolvidos podem ser punidos por isso.

Após um ter argumentado que não havia achado os casos citados, o advogado confessou que havia usado o chatbot inteligente para preparar a ação. As informações são do jornal norte-americano The New York Times.

Entendendo o caso

O colombiano Roberto Mata quis processar a empresa aérea Avianca, pois um carrinho de serviço de bordo havia machucado seu joelho durante um voo de El Salvador para Nova York em 2019. Ele, então, contratou um escritório de advocacia.

O processo estava para ser arquivado, quando um dos advogados de Mata, Steven A. Schwartz, entrou com um recurso, citando vários casos semelhantes ao dele em um documento de dez áginas.

Havia menção a casos como Martinez v. Delta Air Lines, Zicherman v. Korean Air Lines e Varghese v. China Southern Airlines. O primeiro nome seria do sobrenome do autor da ação contra as empresas aéreas envolvidas.

De acordo com registros na corte de Manhattan, nos EUA, o advogado Schwartz diz ter até perguntado ao ChatGPT se esses casos eram reais antes de colocá-los no documento, e o chatbot respondeu que sim, e que eles poderiam ser achados em “bases de dados jurídicas de reputação”.

O problema é que nem o juiz do caso nem os advogados da Avianca conseguiram achar registros desses processos citados no recurso.

No fim das , todos foram inventados pelo chatbot e o advogado Schwartz pediu desculpas por ter confiado no ChatGPT para escrever o recurso. Nos próximos dias, o juiz do caso deve decidir se as envolvidas devem receber algum tipo de punição ou não.

O fato é que o ChatGPT é uma péssima ferramenta para busca. Ele costuma ser bom em estruturar conteúdos solicitados, gerando um que faz sentido, só que ele não tem compromisso com a verdade. Por essa razão, a ferramenta não deve ser usada como um “oráculo”.

O termo técnico para quando uma inteligência artificial gera conteúdos que não fazem sentido ou são incorretos é “alucinação”.

De Tilt, em São Paulo
Fonte: www.uol.com.br

Sobre o autor

Avatar de Redação

Redação

Estamos empenhados em estabelecer uma comunidade ativa e solidária que possa impulsionar mudanças positivas na sociedade.