STF propõe responsabilização de redes sociais por conteúdos de usuários

Toffoli defende retirada de conteúdo após notificação extrajudicial e destaca crimes graves em que plataformas devem agir de forma imediata.

Por Plox

05/12/2024 23h06 - Atualizado há 5 dias

O Supremo Tribunal Federal (STF) avançou nesta quinta-feira (5) na discussão sobre a responsabilidade das plataformas digitais em relação aos conteúdos publicados por seus usuários. Durante a quarta sessão sobre o tema, o ministro Dias Toffoli, relator de um dos casos, concluiu seu voto, propondo alterações significativas na interpretação do Marco Civil da Internet.

Sessão no STF — Foto: Gustavo Moreno/STF

Mudança na remoção de conteúdos

Toffoli declarou que a exigência atual de ordem judicial para a retirada de conteúdos de usuários é inconstitucional. Ele sugeriu que plataformas devem remover conteúdos ofensivos ou ilícitos assim que forem notificadas pela vítima ou por seus advogados, sem a necessidade de decisão judicial. Essa regra, atualmente limitada a casos de exposição de cenas íntimas ou de nudez, seria ampliada para outros tipos de conteúdos.

Em casos graves, como crimes contra o Estado Democrático de Direito, racismo ou violência contra grupos vulneráveis, as plataformas teriam a obrigação de agir imediatamente, independentemente de notificação, sob pena de responsabilidade objetiva. Isso significa que, caso não removam o conteúdo, as empresas poderão ser responsabilizadas judicialmente, sem a necessidade de comprovação de culpa.

Situações de responsabilidade objetiva

Toffoli detalhou os casos em que as plataformas devem agir de forma imediata e independente de notificação. Esses incluem:

  • Crimes contra o Estado Democrático de Direito;
  • Atos de terrorismo ou preparatórios de terrorismo;
  • Incentivo ao suicídio ou à automutilação;
  • Racismo;
  • Violência contra crianças, adolescentes, pessoas vulneráveis e mulheres;
  • Infração sanitária em emergências de saúde pública;
  • Tráfico de pessoas;
  • Incitação ou ameaça de violência física ou sexual;
  • Divulgação de desinformação que incite violência ou afete processos eleitorais.

Caso as plataformas não cumpram essas exigências, poderão ser responsabilizadas pelos danos decorrentes da inércia.

Discussão sobre autorregulação

Durante a sessão, o ministro Alexandre de Moraes destacou a ineficiência das plataformas em identificar perfis falsos ou robôs. Segundo ele, tecnologias para essa identificação já estão disponíveis, mas as empresas não têm interesse em aplicá-las. Moraes argumentou que a autorregulação das redes sociais falhou e criticou o modelo de negócios que incentiva discursos de ódio e monetiza conteúdos problemáticos. "Nós temos que optar se vamos permitir um verdadeiro capitalismo selvagem nas redes ou se vamos colocar a Constituição dentro das redes também", afirmou.

Ação em contexto eleitoral e desinformação

O julgamento também aborda a disseminação de fake news e desinformação com potencial para afetar processos eleitorais e incitar violência. O STF analisa a possibilidade de as plataformas serem condenadas ao pagamento de indenização por danos morais caso não removam conteúdos prejudiciais, mesmo sem ordem judicial.

Marco Civil da Internet em debate

A questão central gira em torno da interpretação do artigo 21 do Marco Civil da Internet. A lei, em vigor desde 2014, estabelece que plataformas só podem ser responsabilizadas por danos causados por conteúdos ofensivos caso não removam o material após ordem judicial específica. Toffoli propõe uma revisão dessa regra para ampliar as possibilidades de responsabilização.

Atualmente, o STF busca estabelecer uma tese que servirá de base para decisões futuras em casos semelhantes nas instâncias inferiores. Segundo o Conselho Nacional de Justiça, há ao menos 345 processos sobre o tema aguardando julgamento no Supremo.

Próximos passos no julgamento

O voto do segundo relator, ministro Luiz Fux, será apresentado na próxima semana, e os demais ministros ainda irão se manifestar, podendo concordar ou divergir das propostas de Toffoli. A decisão final terá impacto direto no funcionamento das redes sociais no Brasil, estabelecendo parâmetros para a responsabilidade das empresas no controle de conteúdos publicados por seus usuários.

Destaques