Até agora, três ministros votaram nas ações, com divergências no entendimento do tema entre eles; oito magistrados ainda devem vota

O Supremo Tribunal Federal (STF) retoma nesta quarta-feira (4) o julgamento sobre a responsabilidade das plataformas virtuais sobre as publicações feitas por usuários. Até aqui, três ministros apresentaram votos, com algumas divergências. Os processos estavam parados desde o pedido de vistas de André Mendonça, em dezembro do ano passado.
A análise da Corte é vista como possível "esboço" da regulação das redes sociais — pauta paralisada no Congresso Nacional desde o 1º semestre de 2024, mas que vem despontando como prioritária no Governo Lula (PT), principalmente após falas da primeira-dama Janja da Silva durante visita presidencial à China.
Até agora, ministros votaram pela ampliação da responsabilidade das plataformas sobre os conteúdos publicados por usuários. Inclusive, com a necessidade de busca ativa e retirada de publicações que configurem crimes, ataques à democracia e informações falsas, mesmo que não haja notificação ou decisão judicial.
Os ministros do Supremo retomam a análise de dois recursos extraordinários que tratam da constitucionalidade do artigo 19 do Marco Civil da Internet. A legislação, aprovada em 2014, é responsável, hoje, por estabelecer as regras para as plataformas no Brasil.
O artigo 19 estabelece que as redes sociais só poderão ser responsabilizadas "por danos decorrentes de conteúdo gerado por terceiros" se não removerem a publicação após decisão judicial sobre o tema. O intuito, segundo o próprio texto da lei, é "assegurar a liberdade de expressão e impedir a censura".
O primeiro processo, cuja relatoria é do ministro Dias Toffoli, questiona a necessidade de decisão judicial para a responsabilização das plataformas por conteúdos "ilícitos" publicados por usuários. A segunda ação, por sua vez, fala da necessidade de uma fiscalização da própria plataforma quando a conteúdos ofensivos, inclusive com a remoção mesmo sem intervenção jurídica.
A decisão proferida pelo Supremo deve ter repercussão geral, mas os processos analisados tratam de casos específicos ocorridos no Facebook e no Google, respectivamente. Além das duas, outras Big Techs também estão no processo como amicus curiae (amigos da Corte). Ou seja, puderam se pronunciar ao longo do julgamento, como é o caso do X (citado como Twitter Brasil).
Julgamento no STF
Os recursos extraordinários, interpostos pelo Google e pelo Facebook, tiveram o julgamento paralisado em dezembro de 2024 após pedido de vistas do ministro André Mendonça. As duas plataformas questionam decisões que declararam a inconstitucionalidade do artigo 19 e definiram a responsabilidade das redes sociais pelo conteúdo publicado.
Antes do pedido de vistas de Mendonça, haviam votado os relatores das duas ações, Dias Toffoli e Luiz Fux, e o presidente do Supremo, Luís Roberto Barroso.
Toffoli e Fux negaram o recurso das empresas e votaram pela inconstitucionalidade do artigo 19. Barroso abriu divergência e acatou parcialmente os recursos, estabelecendo casos específicos em que o artigo continuaria a ser aplicado.
A tendência é de que André Mendonça abra divergência em relação ao voto dos três colegas, defendendo a aplicação do artigo 19 e se aproximando da tese defendida pelas plataformas digitais. Além dele, outros sete ministros ainda irão votar nas duas ações.
Como votaram os ministros sobre a regulação das redes sociais?
O primeiro ministro a votar foi Dias Toffoli, relator de uma das ações em análise pelo Supremo. Ele defende a inconstitucionalidade do artigo 19 e a aplicação do artigo 21 do Marco Civil da Internet quando se trata da responsabilização das plataformas virtuais.
Nele, as plataformas são responsabilizadas caso não removam publicação após notificação extrajudicial da pessoa atingida pelo conteúdo ou do representante legal dela. Hoje, a regra é aplicada apenas em publicações de cenas de nudez ou de atos sexuais feitas sem autorização dos participantes.
No voto, Toffoli sugere aumentar o escopo de aplicação para publicações que causem "danos à intimidade, à vida privada, à honra e à imagem". Assim, as plataformas passariam a ser responsabilizadas caso não removam o conteúdo após serem notificadas pelo "ofendido ou seu representante legal".
Toffoli estabelece ainda que as plataformas digitais serão responsabilizadas caso não excluam o conteúdo, independente de notificação extrajudicial ou de decisão judicial.
Dentre eles, estão conteúdos recomendados ou patrocinados dentro da rede social e publicações feitas por perfis falsos ou por contas desidentificadas, ou automatizadas. Também estão inclusas publicações que possam ser enquadradas como:
- Crimes contra o Estado Democrático de Direito;
- divulgação de fatos notoriamente inverídicos ou descontextualizados com potencial para causar danos ao equilíbrio do pleito ou à integridade do processo eleitoral;
- atos de terrorismo ou preparatórios de terrorismo;
- crime de induzimento, instigação ou auxílio ao suicídio e à automutilação;
- qualquer espécie de violência contra a criança, o adolescente e as pessoas vulneráveis;
- qualquer espécie de violência contra a mulher;
- tráfico de pessoas; e
- infração sanitária por deixar de executar, dificultar ou opor-se à execução de medidas sanitárias em Emergência em Saúde Pública de Importância Nacional.
O magistrado estabelece ainda uma série de condutas que devem ser adotadas pelas plataformas, como o combate à desinformação e a disponibilização de canais específicos para a notificação de conteúdos ilícitos.
"Os provedores de aplicações de internet devem atuar de forma responsável, transparente e cautelosa, a fim de assegurar um ambiente digital seguro, previsível e confiável, baseado nos princípios gerais da boa-fé, da função social e da prevenção e mitigação dos danos".
Ainda no voto, Toffoli estabelece prazo de 18 meses para que o Executivo e o Legislativo estabeleçam "política pública destinada ao enfrentamento da violência digital e da desinformação", tratando inclusive da responsabilidade das plataformas.
O ministro Luiz Fux seguiu integralmente o entendimento de Toffoli, também defendendo a inconstitucionalidade do artigo 19 e ampliação do escopo do artigo 21 do Marco Civil da Internet. O magistrado reforçou que a responsabilização civil das plataformas deve ocorrer em caso de publicações de terceiros que representam, de forma "inequívoca", o "cometimento de atos ilícitos", independente de notificação ou decisão judicial.
"Considera-se evidentemente ilícito o conteúdo gerado por terceiro que veicule discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e apologia ao Golpe de Estado", pontuou. Ele também reforçou a posição de que, em casos de "postagens ofensivas à honra, à imagem e à privacidade de particulares" é necessária a retirada do conteúdo após a notificação do ofendido ou de advogado.
Presidente da Corte, Luís Roberto Barroso abriu divergência em relação à posição dos colegas. Ele defende que o artigo 19 ainda deve ser aplicado em casos de "ofensas e crimes contra a honra". Ou seja, a plataforma só poderá ser responsabilizada se, após decisão judicial, não remover o conteúdo.
"A responsabilidade civil nesses regimes é subjetiva. Em todo caso, os provedores não poderão ser responsabilizados civilmente quando houver dúvida razoável sobre a ilicitude dos conteúdos", diz o voto de Barroso.
Portanto, a obrigação de retirar publicações desde notificação extrajudicial passariam a ser válidas apenas para aqueles que configurarem crimes. O magistrado também estabelece necessidade de criação de canal específico para estas notificações nas plataformas.
Contudo, ele segue o entendimento de que é possível responsabilizar plataformas quando elas não atuarem "proativamente" para retirar conteúdos "extraordinariamente nocivos". São listados como exemplos:
- Pornografia infantil e crimes graves contra crianças e adolescentes;
- induzimento, instigação ou auxílio a suicídio e à automutilação;
- tráfico de pessoas;
- atos de terrorismo; e
- abolição violenta do Estado Democrático de Direito e golpe de Estado.
"A responsabilização nesses casos pressupõe uma falha sistêmica, e não meramente a ausência de remoção de um conteúdo", diz Barroso. Ele ainda estabelece o dever do Congresso Nacional de legislar sobre a regulação das redes sociais.
*Diário do Nordeste