magina conversar com seu artista favorito por mensagem ou ligação? Um aplicativo usou para tornar esse sonho um pouco mais próximo pelo menos. Com chatboats, o Character.AI permite diálogos com cantores, personagens de filmes, série e jogos, e até personalidades da política, como Barack Obama, e grandes nomes da filosofia e física, entre eles Albert Einstein e Platão.
O aplicativo caiu na graça da galera, que compartilhou no usando a ferramenta e se divertindo, mas a startup responsável por ele vem sendo alvo de polêmicas e até ações judiciais. Vamos te explicar essa história!
A ideia por trás da algoritmo de IA, que recria pessoas famosas, até que já faleceram, e permite que os usuários conversem com elas, é de um brasileiro: Daniel de Freitas, que já havia trabalho em empresas como Microsoft, Google e YouTube. Ao lado do seu sócio, o americano Noam Shazeer, ele conseguiu fundar a startup Character.AI e colocar a ideia em prática em 2021.
Em menos de um ano da sua fundação, a empresa – uma das pioneiras no campo da inteligência artificial generativa – foi avaliada em US$ 1 bilhão, e Daniel tornou-se o primeiro bilionário brasileiro da “Era da Inteligência Artificial”. Em agosto de 2024, a startup foi adquirida pelo Google.
@agatapietrav meu namorado sendo fofo #fy #harrystyles #directioner
@ananda uma das coisas mais BIZARRAS que eu ja vi juro
E qual é o problema do Character.AI?
Em outubro de 2024, uma mãe na Flórida, EUA, processou o Character.AI e o Google, acusando-os de provocar o suicídio do filho de 14 anos, Sewell Setzer. O garoto conversava com um chatbot baseado na personagem de “Game of Thrones” Daenerys Targaryen e havia mencionado o desejo de se suicidar.
Segundo a mãe, o filho ficou “viciado e profundamente apegado ao chatbot”, o qual teria promovido “experiências antropomórficas, hipersexualizadas e assustadoramente realistas”. Na ocasião, ela classificou o aplicativo como perigoso por abusar e manipular uma criança, e também por não oferecer ajuda ou notificar os pais sobre as ideias suicidas.
Em dezembro do ano passado, como noticiou a agência de notícias France Presse, outra ação foi movida contra o aplicativo, envolvendo duas famílias que alegam que a plataforma expôs seus filhos a conteúdo sexual e incentivou a automutilação. Um dos casos envolve um adolescente autista de 17 anos que supostamente sofreu uma crise de saúde mental após usar a plataforma, enquanto a outra denúncia alega que a Character.AI incentivou um adolescente a matar seus pais por limitarem seu tempo de tela.
Em respostas às polêmicas, a empresa se manifestou dizendo que desenvolveu um modelo de IA separado para menores de 18 anos e que planeja introduzir controles parentais no início deste ano.
Fonte: capricho