Fatos do Momento

STF vai aplicar leis mais duras contra redes sociais

STF vai aplicar leis mais duras contra redes sociais
  • Publishedjunho 11, 2025

STF vai aplicar leis mais duras contra redes sociais, forma maioria para responsabilizar as plataformas por conteúdo ilegal publicado.

Corte deve revisar artigo do Marco Civil da Internet que blinda plataformas digitais de responsabilidade por posts ilegais de usuários

Nesta quarta-feira, 11, o Supremo Tribunal Federal formou maioria para responsabilizar as plataformas digitais por conteúdo ilegal publicado por usuários nas redes sociais. Com o voto favorável de Gilmar Mendes, o placar sobe para seis ministros a favor de revisar o Marco Civil da Internet, lei que regula o ambiente online no Brasil, enquanto um magistrado se posicionou contra a alteração.

A principal alteração proposta pelo STF envolve o Artigo 19 do Marco Civil, que blinda as plataformas digitais contra punições por posts de caráter ofensivo, extremista ou excessivamente violento. Pela lei atual, é necessária uma ordem específica da Justiça para remover cada publicação — na prática, a mudança força as big techs a aprimorar seus mecanismos de moderação de conteúdo e excluir, por iniciativa própria, materiais que possam ser considerados ilegais.

Pela alteração do artigo, votaram os ministros Gilmar Mendes, Luiz Fux, Dias Toffoli, Flávio Dino, Cristiano Zanin e Luís Roberto Barroso, presidente do Supremo. Já o magistrado André Mendonça se posicionou contra a mudança, argumentando que seria inconstitucional aplicar sanções automáticas contra usuários e plataformas sem ordem judicial.

Faltam os votos dos ministros Nunes Marques, Alexandre de Moraes, Edson Fachin e Cármen Lúcia para que uma tese final seja fixada pela Corte.

O que está na mesa em relação à regulação das redes

Mesmo com a maioria formada a favor da alteração da lei, os ministros divergem sobre o escopo das responsabilidades das plataformas digitais. O desafio do STF é firmar uma tese abrangente sobre crimes praticados nas redes sociais, que servirá como precedente para processos envolvendo TikTok, Meta (dona do Facebook e do Instagram), Discord, X (ex-Twitter), Telegram e outras big techs.

Entre os seis ministros que defendem leis mais duras para regular a internet, há divergências sobre o escopo das obrigações das plataformas digitais. Estão em discussão, por exemplo, os tipos específicos de crimes que devem ser monitorados e removidos de imediato pelas empresas, sem necessidade de ordem judicial – os casos incluem manifestações de ódio, pedofilia, racismo, incitação ou apologia à violência, atentados contra a democracia e delitos contra a honra.

Outro ponto-chave do debate é o prazo que as controladoras de redes sociais teriam para remover conteúdos que infrinjam as regras do Marco Civil. O impasse na Corte é se as empresas seriam obrigadas a agir a partir de uma denúncia, geralmente através dos próprios canais da plataforma, ou se haveria casos mais extremos que exigiriam detecção e remoção imediata da publicação, antes mesmo da notificação por usuários.

Julgamento ocorre sob pressão do Planalto para endurecer regulação Nas últimas semanas, o governo federal vem articulando uma nova ofensiva, distribuída pelos três Poderes, para combater a escalada de crimes ocorridos no ambiente digital e colocar as big techs na rédea curta. A iniciativa ocorre em meio a uma disparada de casos de golpes, fraudes, pornografia infantil e violência contra crianças e adolescentes na internet.

O julgamento, que havia sido paralisado no final de 2024 por um pedido de vista de André Mendonça, foi retomado na semana passada após um pedido da Advocacia-Geral da União (AGU). Em maio, o órgão do Executivo moveu uma ação de tutela de urgência no STF, cobrando medidas imediatas, mesmo antes da decisão final do processo, para conter a crise da criminalidade nas redes.

Além do flanco judicial, o Ministério da Justiça elaborou, ao longo dos últimos meses, um novo projeto de lei com regras mais rígidas para a regulação das redes sociais e maior fiscalização governamental do ambiente online. A proposta, que teve a participação de outros oito ministérios, está na mesa do presidente Luiz Inácio Lula da Silva e aguarda seu aval para ser enviada ao Congresso.

Marco Civil da Internet

Os casos envolvem a aplicação de um trecho do Marco Civil da Internet. A lei, que entrou em vigor em 2014 funciona como uma espécie de Constituição para o uso da rede no Brasil — estabelece princípios, garantias, direitos e deveres para usuários e empresas.

Em um de seus artigos, ela estabelece que as plataformas digitais só serão responsabilizadas por danos causados por conteúdos ofensivos se, depois de uma ordem judicial específica, não tomarem providências para retirar o material do ar.

A questão envolve como as plataformas devem agir diante de conteúdos criados por usuários que ofendem direitos, incitam o ódio ou disseminam desinformação.

A Corte deverá aprovar uma tese, a ser aplicada em processos sobre o mesmo tema nas instâncias inferiores da Justiça.

Votos dos ministros

Saiba como votaram os ministros até o momento:

Dias Toffoli

relator de um dos recursos, Toffoli votou pela inconstitucionalidade do artigo 19 do Marco Civil da Internet.

O ministro defendeu que, nos casos de conteúdos ofensivos ou ilícitos, como racismo, as plataformas digitais devem agir a partir do momento que forem notificadas de forma extrajudicial, pela vítima ou seu advogado, sem necessidade de aguardar uma decisão judicial.

O ministro defendeu ainda que, em situações graves, as plataformas devem retirar o conteúdo mesmo sem a notificação extrajudicial. Toffoli entendeu que se as plataformas digitais deixarem de agir, devem ser responsabilizadas.

Luiz Fux

Relator do outro processo sobre o tema, Fux também considerou que o artigo 19 do Marco Civil fere a Constituição. Da mesma maneira que Toffoli, Fux defendeu que a remoção de conteúdos considerados ofensivos ou irregulares deve ser imediata, assim que a vítima notificar a plataforma.

Para Fux, serão considerados ilícitos os conteúdos que veiculem discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e a golpe de Estado.

O ministro votou para que as plataformas sejam responsabilizadas caso não ajam após notificação extrajudicial e defendeu que as empresas criem canais para receber denúncias sob sigilo e monitorem ativamente os conteúdos publicados.

Luís Roberto Barroso

O presidente do STF propôs que a responsabilização deve ocorrer quando as empresas deixarem de tomar providências necessárias para remover postagens com teor criminoso.

Nos casos de crimes contra a honra, como de injúria, calúnia e difamação, o ministro considera que a remoção do conteúdo só deve ocorrer após ordem judicial.

Barroso também propôs que as empresas têm dever de cuidado e precisam evitar conteúdos como: pornografia infantil; instigação ou auxílio a suicídio; tráfico de pessoas; atos de terrorismo; abolição violenta do Estado Democrático de Direito; golpe de Estado.

André Mendonça

No voto apresentado na semana passada, Mendonça divergiu em parte dos demais ministros. O ministro entendeu que o artigo 19 do Marco Civil da Internet é constitucional.

Afirmou, no entanto, que é preciso interpretar o trecho de acordo com a Constituição para fixar alguns pontos.

Entre eles, que é inválida a remoção ou suspensão de perfis de usuários, exceto quando comprovadamente falsos ou com atividade ilícita; que as plataformas em geral têm o dever de promover a identificação do usuário violador do direito de terceiros; e que não é possível responsabilizar diretamente a rede social sem prévia decisão judicial quando há possíveis irregularidades que envolvam opiniões.

Flávio Dino

Sugeriu uma tese em que prevê: que a responsabilização dos provedores de internet, em regra, ocorrerá pelas normas do artigo 21 do Marco Civil da Internet.

Este trecho da lei prevê a possibilidade de responsabilidade quando a plataforma digital não toma providências de retirada de conteúdo após uma notificação extrajudicial feita pela vítima ou advogado.

Nos casos de crime contra a honra, será aplicado o sistema previsto no artigo 19 do Marco Civil da Internet, em que a responsabilidade só pode ocorrer se a rede social não retirou o conteúdo após ordem judicial específica.

Segundo ele, as plataformas têm o dever de evitar que se façam perfis falsos. Nesse ponto, aplica-se a responsabilidade do Código de Processo Civil, cabível independentemente de prévia notificação judicial ou extrajudicial.

Isso também se aplica a perfis de robôs, anúncios pagos e impulsionados. Se o provedor retirar conteúdo por dever de cuidado, o autor pode pedir a liberação na Justiça. Se a Justiça liberar a publicação, não será devida indenização do provedor ao usuário.

Cristiano Zanin

Considerou que o artigo 19 do Marco Civil da Internet é parcialmente inconstitucional”. Ele propôs três critérios: no caso de conteúdo criminoso, a plataforma seria responsável por remover o conteúdo, sem a necessidade de decisão judicial.

Já a aplicação do artigo 19 seria mantida para provedores neutros (sem impulsionamento). Quando houvesse uma dúvida razoável sobre licitude do conteúdo (assim, não haveria responsabilização imediata se houver a dúvida sobre a legalidade do material).

 

Por Olheinfo, com Veja e TV Globo — Brasília

Foto Última sessão plenária do STF em 2024. Foto: Gustavo Moreno/STF

Written By
Redação Olheinfo

Leave a Reply

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.