Supremo analisa ações que pedem mais agilidade na identificação e remoção de conteúdos ilícitos na internet, como discursos de ódio e incitações contra a democracia. Big techs veem ameaça à liberdade de expressão.
Por: Sofia Fernandes | Crédito Foto: Pedro França/Agência Senado. Estátua da Justiça, em frente ao STF, alvo de golpistas desde a o resultado das eleições de 2022
O Supremo Tribunal Federal (STF) retoma nesta quarta-feira (04/06) o julgamento sobre como provedores de internet, plataformas digitais e sites devem ser responsabilizados por conteúdos ilícitos publicados por seus usuários.
O julgamento foi iniciado em novembro e suspenso em dezembro do ano passado por um pedido de vista do ministro André Mendonça, que será o primeiro a apresentar sua manifestação na sessão prevista para hoje.
Estão em discussão dois recursos sobre a constitucionalidade do artigo 19 do Marco Civil da Internet, lei criada em 2014 que estabeleceu os direitos e deveres para o uso da internet no Brasil.
De acordo com o texto, “com o intuito de assegurar a liberdade de expressão e impedir a censura”, as empresas do ramo, como redes sociais, são passíveis de punição somente se receberem ordem judicial determinando remoção de conteúdo ilícito e se negarem a obedecer.
Como os ministros têm se posicionado?
Até o momento, três ministros votaram sobre o tema, todos eles contrários à exigência de ordem judicial prévia para remoção de conteúdo ofensivo.
Em seu voto, o presidente do STF, ministro Luís Roberto Barroso, defendeu que as redes devem retirar postagens envolvendo pornografia infantil, suicídio, tráfico de pessoas, terrorismo e ataques à democracia, após as empresas serem notificadas pelos envolvidos.
Barroso defendeu, contudo, que a remoção de postagens com ofensas e crimes contra a honra só pode ocorrer após decisão judicial, como ocorre atualmente.
Os ministros Dias Toffoli e Luiz Fux, por sua vez, votaram pela inconstitucionalidade completa da regra atual. Eles entendem que as empresas devem retirar, após notificação extrajudicial, conteúdos considerados ilegais, como mensagens com ataques à democracia, incitação à violência e racismo. Para Toffoli, o modelo atual dá imunidade às plataformas e é inconstitucional.
Do que tratam as ações em julgamento?
Em um dos recursos, relatado por Toffoli, o Facebook questiona decisão do Tribunal de Justiça de São Paulo (TJ-SP) que determinou a exclusão de um perfil falso da rede social. Nesse caso, a discussão é sobre a constitucionalidade do artigo 19 do Marco Civil da Internet e a exigência de ordem judicial prévia para exclusão de conteúdo.
No outro recurso, relatado por Fux, o Google contesta decisão que responsabilizou a empresa por não excluir do Orkut uma comunidade criada para ofender uma pessoa, determinando o pagamento de danos morais. A plataforma questiona a atribuição de fiscalizar conteúdos publicados e de retirás-lo do ar quando considerados ofensivos, sem necessidade de intervenção do Judiciário, sob o argumento de que esse tipo de fiscalização seria impossível e configuraria censura prévia por empresa privada.
Em seu voto, Fux propôs que as empresas sejam obrigadas a remover conteúdos ofensivos à honra ou à imagem e à privacidade que caracterizem crimes (injúria, calúnia e difamação) assim que forem notificadas, e o material só poderá ser republicado com autorização judicial.
Ele defende ainda que, em casos de discurso de ódio, racismo, pedofilia, incitação à violência e apologia à abolição violenta do Estado Democrático de Direito e ao golpe de Estado, as plataformas façam monitoramento ativo e retirem o conteúdo do ar imediatamente, sem necessidade de qualquer tipo de notificação.

Proteção insuficiente
A crítica em torno do artigo 19 é de que é preciso mais agilidade para combater o mau uso das redes sociais e frear o radicalismo no país.
“A questão da regulação das redes sociais se tornou o epítome da ideia de reconstrução democrática no Brasil e de crise democrática”, afirma Clara Iglesias Keller, líder de Pesquisa em Tecnologia, Poder e Dominação no Instituto Weizenbaum de Berlim.
O julgamento ganhou mais relevância com o engavetamento do projeto de lei das fake news na Câmara, após quatro anos de discussões e audiências públicas sobre como regular o modelo de negócio das plataformas. O tema foi remetido para um grupo de trabalho criado em junho, e desde então não houve avanço.
Diante da paralisação do tema no Legislativo, ministros do STF têm dado a entender que o julgamento será um marco nos debates sobre mídias sociais e democracia.
Para Keller, é importante não perder de vista que o julgamento do STF não vai resolver a questão da regulação das redes.
“O poder das plataformas vai muito além de quem responde por danos quando um conteúdo infrator é retirado ou deixa de ser retirado”, explica. “É sobre regulação do modelo de negócio das plataformas, que têm influência sobre o fluxo de informação, o fluxo de atenção, uso de dados. Há uma série de formas de exercer essa influência além do regime de responsabilidade, como a curadoria algorítmica, opacidade, uso de dados”, complementa.
No entanto, não cabe ao Supremo legislar sobre o modelo de governança dessas empresas, mas ao Congresso, que por ora enterrou o debate, lembra Keller.
O que está em jogo?
Apesar de o Marco Civil da Internet ter representado avanços significativos no direito digital, parte da legislação enfrenta questionamentos quanto à responsabilidade das plataformas pelo conteúdo postado por seus usuários.
Atualmente, a lei só responsabiliza civilmente as empresas se não houver cumprimento de decisão judicial determinando a remoção de conteúdo ilegal – garantia presente no artigo 19. No entanto, esse regime é considerado defasado diante de um cenário tecnológico mais complexo, palco de crises democráticas e ataques à Constituição – a exemplo das articulações golpistas que se deram após as eleições de 2022.
Se os ministros decidirem pela inconstitucionalidade do artigo 19, as plataformas serão instadas a agir mais proativamente, sem a necessidade de uma interferência do Judiciário, a partir de notificações comuns de usuários.
Por outro lado, defensores do artigo 19 argumentam que as plataformas, temendo o custo de processos na Justiça, passarão a remover conteúdo preventivamente caso o dispositivo seja eliminado, cerceando a liberdade de expressão.
Discute-se uma opção intermediária, em que os ministros podem decidir manter o artigo 19 em termos gerais, mas indicar algumas exceções para casos graves – conteúdos específicos a serem removidos sem a necessidade de uma ordem judicial.
Atualmente já existem duas exceções para responsabilização das redes a partir de notificação de usuários comuns: quando se trata de disseminação não consentida de imagens íntimas e violação de direito autoral.
Para o diretor do InternetLab, Francisco Brito Cruz, ampliar as possibilidades de exceção para outras condutas graves seria um “caminho equilibrado” para o regime de responsabilidade do Marco Civil.
Dificuldade de regulamentação reflete desequilíbrio global
A Advocacia Geral da União (AGU) acompanha o julgamento e defendeu, em documento enviado ao STF, que “Não é razoável que empresas que lucram com a disseminação de desinformação permaneçam isentas de responsabilidade legal no que tange à moderação de conteúdo”.
“Essas plataformas desempenham um papel crucial na veiculação de informações corretas e na proteção da sociedade contra falsidades prejudiciais. A ausência de uma obrigação de diligência nesse processo permite que a desinformação se propague de forma descontrolada, comprometendo a confiança pública e causando danos consideráveis”, completou.
Para Keller, do Instituto Weizenbaum em Berlim, a dificuldade em avançar com o tema da responsabilização das redes no Brasil tem a ver com um desequilíbrio global de forças. Na União Europeia, por exemplo, as big techs operam sob leis que dão mais transparência, acesso a dados e outras garantias aos usuários.
O DSA (Digital Service Act)inaugurou um marco legal na defesa de questões concorrenciais e de direito ao consumidor de internet nos países europeus.
De acordo com a lei, não basta apenas remover ou deixar de remover conteúdo – é preciso ter uma responsabilidade mais ativa: ser transparente, reconhecer os riscos em potencial dentro do seu sistema e ter mecanismos para mitigar esses riscos quando necessário.
“Tem uma questão fundamental de desequilíbrios globais de poder – empresas que têm poder econômico em nível global significativo que não se comportam em debates de política pública na Europa como no Brasil, o maior mercado da América Latina”, diz Keller.
“Uma democracia exige um tratamento objetivo da liberdade de expressão e das comunicações que seja condizente com o que uma democracia exige: pluralismo, participação de grupos vulneráveis. Rejeitar a regulação em nome de uma liberdade de expressão nos leva para um lugar de não regulação que, paradoxalmente, acaba prejudicando a liberdade de expressão”, afirma a pesquisadora.
Tudo isso se soma a um lobby muito forte das plataformas e de como a extrema direita no Congresso brasileiro acolheu e fomentou esse discurso, pontua Keller.
Publicado originalmente em: https://www.dw.com/pt-br/stf-retoma-julgamento-sobre-responsabiliza%C3%A7%C3%A3o-de-plataformas-digitais/a-70901061