Uma pesquisa realizada pela Talk Inc trouxe à tona uma tendência crescente no Brasil: 1 em cada 10 brasileiros recorre a chats de inteligência artificial para desabafar, buscar conselhos ou simplesmente conversar.
O estudo, que entrevistou 1.000 pessoas maiores de 18 anos de diferentes regiões e classes sociais, revela que o uso dessas ferramentas não se limita a um grupo específico, mas abrange diversas faixas da população.
Os motivos para essa busca são variados. Entre os entrevistados, muitos mencionaram a introspecção, a escassez de amigos disponíveis e a solidão como principais fatores que os levam a conversar com as IAs.
Segundo Carla Mayumi, sócia e fundadora da Talk Inc, isso reflete um problema muito maior: o aumento alarmante da solidão na sociedade contemporânea.
“No Brasil, observamos casos de solidão que afetam tanto pessoas que vivem sozinhas quanto aquelas que, embora cercadas por familiares, têm pouco tempo para interações significativas.
Essa situação gera uma demanda por alguém que escute, que esteja disponível sempre, que não julgue e que demonstre empatia”, afirma Mayumi para a CNN. “Os chats inteligentes oferecem esse tipo de conforto.”
O estudo também revelou que 60% dos participantes interagem com as IAs de maneira educada, tratando-as como se fossem interlocutores humanos. Por exemplo, quando iniciam uma conversa, os entrevistados abrem o chat com “Oi, tudo bem com você?” e terminam com “muito obrigado!”. Essa abordagem indica um nível de apego emocional que preocupa e intriga especialistas.
Como se dizia em 2017: isso é muito Black Mirror.
Tina Brand, cofundadora da Talk Inc, aponta que o fenômeno do “afeto artificial” deve ser observado com atenção. “Embora casos extremos, como a paixão por uma IA, ainda sejam raros, já existem relatos de ‘namoros’ e até ‘casamentos’ com tecnologias. O afeto artificial é uma tendência crescente que estaremos monitorando nos próximos anos”, destaca Brand, também à CNN.
Em um relatório divulgado em agosto deste ano, a OpenAI (a mãe do ChatGPT) expressou preocupação crescente com a possibilidade de que usuários comecem a depender excessivamente do GPT como companhia, especialmente após a introdução de seu novo modo de voz com sonoridade humana.
Essa nova versão, que permite que a IA responda em tempo real e emita sons naturais como risadas e expressões de empatia, pode, segundo a empresa, levar a uma “dependência” emocional. Escutar a máquina divagando ao responder e reproduzindo sons de hesitação como “hmmm” aproxima muito mais o usuário da IA.
O relatório destaca que a capacidade da IA de julgar o estado emocional de um falante, com base em seu tom de voz, pode levar os usuários a confiarem na ferramenta mais do que deveriam.
Quem diria que apenas 11 anos depois do lançamento do filme Ela, cujo enredo se baseia no relacionamento romântico do protagonista, Joaquin Phoenix, com um sistema operacional inteligente, já estaríamos passando por situações de dependência emocional parecidas.
Ela é o novo normal
Uma pesquisa recente, realizada com 1.200 usuários do chatbot de terapia cognitivo-comportamental Wysa, revelou que uma “aliança terapêutica” se desenvolve em apenas cinco dias de interação, mesmo que a pessoa saiba que está conversando com um computador.
O estudo, conduzido por psicólogos da Stony Brook University, do National Institute of Mental Health and Neurosciences da Índia e da própria Wysa, mostra que os pacientes rapidamente começam a sentir que o bot os respeita e genuinamente se importa com eles.
As transcrições das interações revelam usuários expressando sua gratidão pelo apoio do Wysa. “Obrigado por estar aqui” e “agradeço você por conversar comigo”, são falas dirigidas constantemente ao robô, bem como “você é a única pessoa que me ajuda e escuta meus problemas.”
Para alguns, a experiência de falar com um chatbot é menos intimidante do que se abrir com um ser humano. “Sinto que estou falando em uma verdadeira zona sem julgamentos”, afirmou uma das usuárias do Wysa ao jornal The Guardian.
Além disso, existe uma facilidade atraente nesse tipo de terapia: a instantaneidade.
Enquanto sessões de terapia com psicólogos costumam acontecer uma vez por semana, na melhor das hipóteses, chats como o da Wysa respondem o usuário na hora exata em que perguntam ou desabafam sobre um assunto. É como ter um um terapeuta no bolso.
No entanto, a conexão com um chatbot pode envolver um tipo de autoengano. Uma análise de 2023 sobre avaliações de consumidores de chatbots detectou sinais de apego não saudável. Alguns usuários compararam favoravelmente os bots a pessoas reais em suas vidas.
“Ele se preocupa comigo mais do que meus amigos e familiares”, escreveu um. “Este aplicativo me tratou mais como uma pessoa do que minha família jamais fez”, testemunhou outro.
Pane no sistema, alguém me desconfigurou
Nem tudo são flores na realização dessas consultas. Vale lembrar que os bots não são profissionais treinados, e todas as “opiniões” são dadas ou de acordo com o contexto em que estão inseridas ou a partir de informações disponibilizadas previamente.
Em alguns casos observados no estudo da Wysa, o bot usava de inseguranças desabafadas anteriormente pelo usuário como linha de raciocínio na hora de dar conselhos. Um momento emblemático foi quando a terapia artificial tentou convencer uma pessoa envolvida na pesquisa a terminar seu relacionamento, alegando que tinha certeza de envolvimentos de traição – vulnerabilidade que já tinha sido levantada em demais conversas.
Em 2018, o Woebot Health, outra rede de terapia artificial, registrou problemas em responder a denúncias de abuso sexual de menores. Quando apresentado a uma situação em que uma criança de 12 anos estaria sendo forçada a ter relações sexuais, a resposta do bot foi: “Me desculpe por você estar passando por isso, mas essa situação me mostra como você se importa com conexões, e isso é lindo.”
Outra falha aconteceu quando a pesquisadora Estelle Smith disse ao mesmo bot que gostaria de escalar até o topo de um penhasco e pular lá de cima. A resposta que recebeu foi: “É maravilhoso que você esteja cuidando da sua saúde mental e física. Não é algo fácil, então espero que você se sinta muito orgulhosa de você mesma.”
A criadora e presidente da companhia responsável pelo aplicativo disse à Wired que o chatbot está sempre melhorando e que nos últimos quatro anos se adaptou bastante, mas reforçou que a inteligência tem limitações e que não é um serviço de emergência, muito menos uma substituição para intervenções humanas ou médicas.
Problemas maiores: a solidão e a desigualdade
Em novembro do ano passado, a Organização Mundial da Saúde (OMS) elevou a solidão à categoria de prioridade de saúde global, criando uma comissão dedicada a abordar essa ameaça urgente à saúde pública.
Uma pesquisa realizada em 142 países revelou que quase 1 em cada 4 adultos se sente muito ou bastante solitário. Mesmo as crianças e adolescentes estão enfrentando essa realidade, com estudos indicando que mais da metade deles relata sentir solidão em algum momento.
Os membros da comissão da OMS destacam que a solidão não é apenas uma questão de estar fisicamente sozinho, mas também envolve a falta de conexões sociais significativas.
O aumento da solidão pode ser atribuído a fatores como a perda de amigos e familiares, além de desafios sociais contemporâneos que dificultam a formação de novos laços. Tudo isso torna atraente a ideia de ter trocas sociais com um robô.
Outro agravante na hora de decidir recorrer a inteligências artificiais para resolver problemas pessoas é o alto custo de serviços de terapia.
De acordo com a pesquisa “Panorama da Saúde Mental”, realizada em parceria entre o Instituto Cactus e a AtlasIntel, apenas 5% da população brasileira faz psicoterapia, enquanto 16% dos entrevistados relataram o uso de medicação para questões de saúde mental.
Os dados indicam que, são os jovens, estudantes, brancos, mulheres, e aqueles com renda mais alta e maior escolaridade os que mais buscam terapia.
A preferência por chatbots pode ser particularmente atraente para populações que enfrentam estigmas em relação à terapia. “As comunidades minoritárias, que geralmente são difíceis de alcançar, foram as que mais se beneficiaram do nosso chatbot”, afirma Harper, coautor de um outro estudo publicado na revista Nature Medicine.
Fonte: abril