STF tende a responsabilizar redes sociais por conteúdo de usuários

Com voto de Cristiano Zanin, Supremo já tem maioria pela responsabilização das plataformas por postagens de usuários

Por Plox

11/06/2025 16h48 - Atualizado há 1 dia

O julgamento que discute a responsabilidade das redes sociais por conteúdos postados por seus usuários avançou significativamente nesta quarta-feira (11), quando o ministro Cristiano Zanin manifestou seu voto favorável à responsabilização das plataformas.


Imagem Foto: STF


Na avaliação de Zanin, o Artigo 19 do Marco Civil da Internet — que condiciona a responsabilização das redes à existência de ordem judicial — oferece uma \"proteção deficiente\" aos direitos dos cidadãos. Para ele, o trecho é \"parcialmente inconstitucional\", o que levou à sugestão de novos parâmetros legais para tratar do tema.


A posição do ministro foi a sexta apresentada no julgamento e contribuiu para ampliar a maioria que se forma no Supremo Tribunal Federal (STF). Já são cinco votos no sentido de responsabilizar as plataformas por conteúdos ofensivos ou ilícitos, embora cada ministro proponha caminhos diferentes para essa responsabilização.


Imagem Foto: Ministro Cristiano Zanin / STF


A sessão foi suspensa logo após a manifestação de Zanin, mas deverá ser retomada ainda nesta quarta com o voto antecipado de Gilmar Mendes. Além de Zanin, já votaram os ministros Luiz Fux, Dias Toffoli, André Mendonça, Flávio Dino e o presidente da Corte, Luís Roberto Barroso.


Relator de um dos recursos, Dias Toffoli declarou inconstitucional o artigo 19, propondo que as plataformas ajam a partir de notificações extrajudiciais feitas pelas vítimas ou advogados. Em casos mais graves, Toffoli defendeu que as redes devem agir imediatamente, mesmo sem qualquer tipo de notificação.


Luiz Fux, relator de outro processo, também considerou o artigo inconstitucional. Ele defende que conteúdos como discurso de ódio, racismo, pedofilia, apologia à violência e ataques ao Estado Democrático de Direito devem ser removidos de forma célere, assim que a plataforma for notificada. Ele ainda propôs que empresas mantenham canais sigilosos para denúncias e adotem monitoramento ativo.


O presidente do STF, Luís Roberto Barroso, adotou uma postura intermediária. Para ele, a responsabilização das redes deve ocorrer quando não houver reação das empresas diante de conteúdos criminosos. No entanto, em casos de crimes contra a honra, como calúnia e difamação, Barroso entende que a retirada só deve acontecer após ordem judicial. Ele destacou que as plataformas devem evitar a disseminação de conteúdos como pornografia infantil, tráfico de pessoas, terrorismo e incitação ao suicídio.



Na contramão dos demais ministros, André Mendonça foi o único a divergir totalmente até o momento. Para ele, o artigo 19 do Marco Civil é constitucional, mas precisa ser interpretado à luz da Constituição. Mendonça apontou que não se pode suspender perfis de usuários sem comprovação de falsidade ou ilegalidade e que não se deve punir diretamente as plataformas em casos de opiniões irregulares sem decisão judicial prévia.


Flávio Dino, que também votou nesta quarta, destacou o impacto negativo da desinformação nas redes. Segundo ele, a liberdade de expressão não pode ser confundida com liberdade para mentir:
"Liberdade sem responsabilidade é tirania", afirmou. 
Dino apresentou casos de crimes, como ataques a escolas e violência contra crianças, estimulados em ambientes digitais, e propôs uma tese própria para responsabilização das plataformas.

A discussão gira em torno da aplicação do Marco Civil da Internet, em vigor desde 2014, que hoje prevê que plataformas só podem ser punidas judicialmente se, após decisão da Justiça, não removerem conteúdos ofensivos. O STF discute se esse modelo é adequado frente ao crescimento dos discursos de ódio e da desinformação.



A decisão final, com a definição de uma tese vinculante, servirá de base para julgamentos similares em instâncias inferiores da Justiça. A expectativa é que o STF estabeleça novos critérios de responsabilização que levem em conta a gravidade do conteúdo, o tipo de notificação e a ação ou omissão das plataformas digitais.


Destaques