STF propõe responsabilização de redes sociais por conteúdos de usuários
Toffoli defende retirada de conteúdo após notificação extrajudicial e destaca crimes graves em que plataformas devem agir de forma imediata.
Por Plox
05/12/2024 23h06 - Atualizado há 5 dias
O Supremo Tribunal Federal (STF) avançou nesta quinta-feira (5) na discussão sobre a responsabilidade das plataformas digitais em relação aos conteúdos publicados por seus usuários. Durante a quarta sessão sobre o tema, o ministro Dias Toffoli, relator de um dos casos, concluiu seu voto, propondo alterações significativas na interpretação do Marco Civil da Internet.
Mudança na remoção de conteúdos
Toffoli declarou que a exigência atual de ordem judicial para a retirada de conteúdos de usuários é inconstitucional. Ele sugeriu que plataformas devem remover conteúdos ofensivos ou ilícitos assim que forem notificadas pela vítima ou por seus advogados, sem a necessidade de decisão judicial. Essa regra, atualmente limitada a casos de exposição de cenas íntimas ou de nudez, seria ampliada para outros tipos de conteúdos.
Em casos graves, como crimes contra o Estado Democrático de Direito, racismo ou violência contra grupos vulneráveis, as plataformas teriam a obrigação de agir imediatamente, independentemente de notificação, sob pena de responsabilidade objetiva. Isso significa que, caso não removam o conteúdo, as empresas poderão ser responsabilizadas judicialmente, sem a necessidade de comprovação de culpa.
Situações de responsabilidade objetiva
Toffoli detalhou os casos em que as plataformas devem agir de forma imediata e independente de notificação. Esses incluem:
- Crimes contra o Estado Democrático de Direito;
- Atos de terrorismo ou preparatórios de terrorismo;
- Incentivo ao suicídio ou à automutilação;
- Racismo;
- Violência contra crianças, adolescentes, pessoas vulneráveis e mulheres;
- Infração sanitária em emergências de saúde pública;
- Tráfico de pessoas;
- Incitação ou ameaça de violência física ou sexual;
- Divulgação de desinformação que incite violência ou afete processos eleitorais.
Caso as plataformas não cumpram essas exigências, poderão ser responsabilizadas pelos danos decorrentes da inércia.
Discussão sobre autorregulação
Durante a sessão, o ministro Alexandre de Moraes destacou a ineficiência das plataformas em identificar perfis falsos ou robôs. Segundo ele, tecnologias para essa identificação já estão disponíveis, mas as empresas não têm interesse em aplicá-las. Moraes argumentou que a autorregulação das redes sociais falhou e criticou o modelo de negócios que incentiva discursos de ódio e monetiza conteúdos problemáticos. "Nós temos que optar se vamos permitir um verdadeiro capitalismo selvagem nas redes ou se vamos colocar a Constituição dentro das redes também", afirmou.
Ação em contexto eleitoral e desinformação
O julgamento também aborda a disseminação de fake news e desinformação com potencial para afetar processos eleitorais e incitar violência. O STF analisa a possibilidade de as plataformas serem condenadas ao pagamento de indenização por danos morais caso não removam conteúdos prejudiciais, mesmo sem ordem judicial.
Marco Civil da Internet em debate
A questão central gira em torno da interpretação do artigo 21 do Marco Civil da Internet. A lei, em vigor desde 2014, estabelece que plataformas só podem ser responsabilizadas por danos causados por conteúdos ofensivos caso não removam o material após ordem judicial específica. Toffoli propõe uma revisão dessa regra para ampliar as possibilidades de responsabilização.
Atualmente, o STF busca estabelecer uma tese que servirá de base para decisões futuras em casos semelhantes nas instâncias inferiores. Segundo o Conselho Nacional de Justiça, há ao menos 345 processos sobre o tema aguardando julgamento no Supremo.
Próximos passos no julgamento
O voto do segundo relator, ministro Luiz Fux, será apresentado na próxima semana, e os demais ministros ainda irão se manifestar, podendo concordar ou divergir das propostas de Toffoli. A decisão final terá impacto direto no funcionamento das redes sociais no Brasil, estabelecendo parâmetros para a responsabilidade das empresas no controle de conteúdos publicados por seus usuários.