A recente decisão do Supremo Tribunal Federal (STF), que declarou inconstitucional parte do artigo 19 do Marco Civil da Internet, marca uma mudança significativa — e, para muitos especialistas e defensores da liberdade de expressão, um retrocesso preocupante.
Com nove votos a favor e três contrários, o STF decidiu que plataformas digitais podem ser responsabilizadas civilmente por conteúdos publicados por usuários, mesmo sem ordem judicial prévia. Na prática, isso significa que empresas como Meta, Google, X (antigo Twitter), TikTok e outras deverão agir para remover postagens consideradas ilegais assim que forem notificadas, mesmo extrajudicialmente.

Por que isso é visto como um retrocesso?
O artigo 19 do Marco Civil da Internet, criado em 2014, estabelecia que provedores só poderiam ser responsabilizados se não removessem conteúdo após decisão judicial específica. Esse mecanismo visava proteger a liberdade de expressão e evitar a censura privada — e, sobretudo, proteger jornalistas e comunicadores de perseguições arbitrárias.
A mudança aprovada pelo STF, embora tenha ressalvado a necessidade de decisão judicial em casos de “crimes de honra” (calúnia, injúria e difamação), impõe agora um “dever de cuidado” sobre as plataformas para uma série de crimes graves, como:
- Condutas antidemocráticas,
- Pornografia infantil,
- Incitação ao ódio ou discriminação,
- Crimes contra a mulher e contra crianças.
Apesar de bem-intencionada, a nova interpretação abre espaço para remoções preventivas, notificações extrajudiciais e a autocensura de usuários.
O que diz o STF
Segundo o presidente da Corte, ministro Luís Roberto Barroso, o tribunal não está legislando, mas respondendo a dois casos concretos. Ainda assim, críticos apontam que a decisão pode criar um ambiente onde plataformas agirão por medo de serem processadas, retirando do ar publicações legítimas por precaução.
O pesquisador do Ipea Alexandre Arns Gonzalez destaca que a proteção original do artigo 19 foi pensada para evitar abusos:
“A ideia era resguardar comunicadores da censura e garantir espaço para o jornalismo e o debate público. Essa decisão fragiliza esse princípio.”
Riscos concretos apontados por especialistas
- Censura privada e seletiva: Plataformas podem remover postagens duras contra políticos, instituições ou empresas para evitar processos.
- Autocensura: Usuários podem deixar de se expressar livremente, receando notificações ou represálias.
- Concentração de poder: Quem tem mais acesso ao Judiciário ou influência política pode pressionar plataformas com mais agilidade.
- Remoção injustificada: Conteúdos legítimos podem ser excluídos com base em critérios subjetivos ou sem contraditório.
E o impacto internacional?
Grandes empresas de tecnologia já estudam recorrer a tribunais internacionais, como a Corte Interamericana de Direitos Humanos, alegando que a nova diretriz brasileira fere tratados sobre liberdade de expressão. Além disso, pode haver impacto direto sobre a presença ou o investimento de plataformas estrangeiras no país.
E o Congresso?
Enquanto isso, o Projeto de Lei 2630/2020, que propõe uma regulação mais ampla das plataformas digitais, segue parado desde 2023. O deputado Orlando Silva (PCdoB-SP), relator da proposta, afirma que o Congresso ainda terá que lidar com o tema “à luz da nova interpretação do STF”. Para ele, o STF não cometeu ativismo judicial, mas apenas cumpriu seu dever de julgar.
Apesar de buscar proteger direitos fundamentais e combater crimes graves, a decisão do STF esvazia uma das principais garantias de liberdade na internet brasileira. Ao reduzir a exigência de decisão judicial para retirada de conteúdos, a nova regra pode provocar mais censura do que proteção, especialmente em um ambiente cada vez mais polarizado e hostil ao debate público.
A expectativa agora recai sobre o Congresso Nacional — que, pressionado por diferentes interesses, terá de decidir se corrige o rumo ou mantém o país na direção de uma internet mais silenciosa e menos democrática.