Um novo estudo sugere que o uso de sistemas de IA como o ChatGPT para compor mensagens para amigos pode levar à diminuição da satisfação e ao aumento da insegurança de relacionamento se o uso de IA for descoberto.
Usar aplicativos de IA como o ChatGPT para compor mensagens para amigos pode ser uma má ideia, já que um novo estudo descobriu que as pessoas percebem as mensagens geradas por IA como exigindo menos esforço por parte do remetente.
Essa percepção, por sua vez, faz com que os destinatários de mensagens geradas por IA se sintam menos satisfeitos com seu relacionamento e mais inseguros sobre onde estão com seu amigo.
O estudo envolveu 208 participantes que foram apresentados a vários cenários, como vivenciar o burnout e precisar de apoio, ter um conflito com um colega e precisar de conselhos, ou ter um aniversário próximo. Eles foram convidados a enviar uma mensagem para seu amigo fictício, Taylor, descrevendo seus sentimentos.
Precisamos de você, Taylor
Os participantes foram informados de que seu amigo fictício Taylor havia lhes enviado uma resposta, algumas das quais foram assistidas por IA, algumas das quais foram editadas por um membro de uma comunidade de escritores, e o resto foi escrito exclusivamente por Taylor.
Os resultados mostraram que os destinatários das respostas aprimoradas por IA as consideraram menos apropriadas do que aquelas que receberam mensagens escritas apenas por Taylor. Seu julgamento não tinha nada a ver com a qualidade da resposta em si, mas apenas com o esforço que Taylor supostamente havia feito.
Além disso, receber mensagens aprimoradas por IA tornou os participantes menos satisfeitos com seu relacionamento e mais inseguros sobre sua amizade com Taylor. Curiosamente, receber mensagens escritas com a ajuda de outro humano, em vez de apenas IA, teve o mesmo impacto negativo no relacionamento.
A autora principal Bingjie Liu, professora assistente de comunicação da Universidade Estadual de Ohio, tem uma explicação para esse fenômeno: ela acredita que o esforço é crucial em um relacionamento, e usar IA ou ajuda de terceiros para criar mensagens pode ser percebido como tomar atalhos e falta de sinceridade.
À medida que o ChatGPT e serviços semelhantes se tornam mais populares, Liu suspeita que as pessoas podem desenvolver um comportamento inconsciente de escanear mensagens de seus amigos em busca de padrões de IA, algo que ela chama de “teste de Turing na mente”. Se eles descobrirem que a mensagem foi escrita por uma IA, isso pode prejudicar os relacionamentos.
Algumas reflexões pessoais sobre mensagens de IA
Já tive pensamentos semelhantes antes sobre sugestões de respostas geradas por IA em mensageiros e e-mails. Tenho que admitir que as uso, às vezes até para responder ao meu parceiro ou amigos. Pode parecer um atalho preguiçoso que não dá ao meu colega a atenção que ele merece naquele momento.
Curiosamente, para mim, esse sentimento aumenta com a discrepância entre a resposta gerada pela IA e a resposta que eu teria dado se eu mesma tivesse digitado. Essas podem ser diferenças muito sutis, como usar um emoticon específico ou dizer “Hey my friend” em vez de apenas “Hi”.
Mas se a sugestão de IA estiver 100% correta, como “obrigado” quando tudo o que eu realmente quero dizer é “obrigado”, esse sentimento desaparece.
Portanto, pode não ser o ato de digitar, pode ser se sua resposta é realmente autêntica para você e não apenas uma aproximação “boa o suficiente” do que você quis dizer.
Porque se uma aproximação me parece estranha como emissor, pode parecer ainda mais estranha para o receptor. Portanto, nosso esforço pode ser garantir que dizemos o que queremos dizer.
Fonte: Andre Lug