O Supremo Tribunal Federal (STF) estabeleceu uma nova diretriz para o funcionamento das redes sociais no Brasil. A Corte decidiu que plataformas como Facebook, Instagram, YouTube, TikTok e outras devem ser responsabilizadas por postagens ilegais de seus usuários, caso não removam os conteúdos após serem notificadas extrajudicialmente.
Com maioria de 8 votos a 3, os ministros consideraram que o Artigo 19 do Marco Civil da Internet (Lei 12.965/2014) é parcialmente constitucional. Originalmente, o dispositivo exigia uma ordem judicial para que as plataformas fossem responsabilizadas por danos relacionados a conteúdos gerados por terceiros.
Agora, o entendimento é de que, diante da propagação de desinformação, discursos de ódio e ataques à democracia, a retirada de conteúdos ilegais deve ocorrer imediatamente após a notificação de vítimas ou autoridades, mesmo sem decisão judicial.
A decisão representa um marco inédito no Judiciário brasileiro e afeta diretamente a atuação das big techs no país. O Brasil é um dos maiores mercados para empresas como Google, Meta e ByteDance, responsáveis pelas principais plataformas digitais.
O STF especificou ainda quais conteúdos exigem remoção imediata:
- Atos antidemocráticos;
- Crimes de terrorismo;
- Incentivo ao suicídio ou automutilação;
- Discriminação por raça, cor, etnia, religião, nacionalidade, sexualidade ou identidade de gênero;
- Violência contra a mulher baseada no sexo feminino;
- Crimes sexuais contra vulneráveis, pornografia infantil e violência contra crianças e adolescentes.
Além disso, as plataformas também deverão remover qualquer replicação de conteúdos já declarados ilegais pela Justiça, mesmo que não haja nova decisão judicial para isso.
Outro ponto decidido pelo STF é que postagens impulsionadas, patrocinadas ou disseminadas por robôs serão passíveis de responsabilização imediata, independentemente de notificação.
No entanto, casos de calúnia, injúria e difamação ainda exigem decisão judicial específica para a retirada do conteúdo.
Mensagens enviadas por e-mail ou aplicativos como WhatsApp e Telegram seguem protegidas pelo sigilo das comunicações. Portanto, os provedores desses serviços não são responsabilizados diretamente por conteúdos ilegais, mantendo-se a regra do Artigo 19 do Marco Civil.
A Corte também determinou que as plataformas devem criar mecanismos de autorregulação, com regras claras para o recebimento de notificações extrajudiciais e a apresentação de relatórios anuais sobre moderação de conteúdo.
Adicionalmente, as empresas deverão manter representação jurídica no Brasil, garantir o cumprimento de decisões judiciais e fornecer informações sobre suas políticas de moderação.
A decisão do STF tem validade imediata e não será aplicada retroativamente. Ela permanece vigente até que o Congresso Nacional aprove uma nova legislação específica sobre o tema.
Segundo o relator do caso, “enquanto não sobrevier nova legislação, o art. 19 do MCI deve ser interpretado de forma que os provedores de aplicação de internet estão sujeitos à responsabilização civil”.
Fonte: cenariomt