STF amplia dever das redes sociais na remoção de conteúdos ilegais

Plataformas digitais passam a ser responsabilizadas por não excluir postagens criminosas, mesmo sem ordem judicial, em casos específicos

Por Plox

28/06/2025 10h48 - Atualizado há 3 dias

Na última quinta-feira (26), o Supremo Tribunal Federal (STF) redefiniu as responsabilidades das plataformas digitais quanto à remoção de conteúdos ilícitos. A decisão estabelece que, em determinadas situações, redes sociais devem excluir postagens criminosas sem necessidade de ordem judicial.


Imagem Foto: Pixabay


Anteriormente, a obrigação de remoção sem decisão judicial era restrita a casos de divulgação não autorizada de nudez ou atos sexuais e violações de direitos autorais. Com a nova determinação, a lista de conteúdos que exigem ação imediata das plataformas foi ampliada.



As situações que agora requerem remoção imediata incluem:


- Incitação a atos antidemocráticos;


- Crimes de terrorismo ou preparatórios;


- Estímulo ao suicídio ou automutilação;


- Discriminação por raça, cor, etnia, religião, nacionalidade, sexualidade ou identidade de gênero;


- Crimes contra a mulher baseados em gênero;


- Crimes sexuais contra vulneráveis, pornografia infantil e crimes graves contra crianças e adolescentes;


- Tráfico de pessoas.



Além disso, as plataformas serão responsabilizadas se não removerem conteúdos ilícitos após notificações extrajudiciais, especialmente em casos de contas falsas ou conteúdos patrocinados com material ilegal.



O STF considerou parcialmente inconstitucional o artigo 19 do Marco Civil da Internet, que previa responsabilização das plataformas apenas após descumprimento de ordem judicial. Os ministros entenderam que essa regra não oferece proteção suficiente aos direitos fundamentais e à democracia.



A decisão não se aplica a serviços de e-mail, chamadas de voz ou vídeo, e aplicativos de mensagens, que continuam sob as regras anteriores. Marketplaces seguem as normas do Código de Defesa do Consumidor.



\"Não é porque alguém foi vítima de um crime de ódio ou discriminação que a rede vai ser automaticamente responsabilizada, tem que haver uma falha sistêmica\", explicou Álvaro Palma de Jorge, advogado constitucionalista e professor da FGV Direito Rio.


A medida visa garantir que as plataformas adotem medidas eficazes para prevenir e remover conteúdos que violem direitos fundamentais, reforçando a responsabilidade das redes sociais na moderação de seus espaços digitais.


Destaques