Legislação

Entenda julgamento do STF sobre Marco Civil da Internet e regulação das redes

A expectativa é que o Supremo promova mudanças na regulação da atividade digital semelhantes ao que vinha sendo discutido no âmbito do PL das Fake News
Atualizado em 28 de novembro de 2024 • 09:47
Entenda julgamento do STF sobre Marco Civil da Internet e regulação das redes
Foto: Reprodução Adobe Stock

São Paulo e Brasília – O Supremo Tribunal Federal (STF) retoma nesta quinta-feira (28) a análise de casos envolvendo o Marco Civil da Internet e a possibilidade de responsabilização de plataformas de redes sociais por conteúdos de terceiros.

A corte iniciou a análise na quarta-feira (27) e ouviu apenas as sustentações orais dos advogados. Agora, devem falar os demais representantes de entidades inscritas no processo. Em seguida, os ministros começam a votar.

A expectativa é que o Supremo promova mudanças na regulação da atividade digital semelhantes ao que vinha sendo discutido no Congresso Nacional no âmbito do PL das Fake News, que acabou travado.

Marco Civil da Internet e regulação das redes: entenda o debate

Qual o debate sobre a regulação das redes sociais?

O conteúdo continua após o "Você pode gostar".


O STF iniciou o julgamento de casos que questionam trechos do Marco Civil e a possibilidade de responsabilização das plataformas por conteúdos publicados por terceiros, como seus usuários; o presidente da corte, ministro Luís Roberto Barroso, diz que a análise ocorre após a demora do Legislativo em regular o tema.

O que é o marco civil da internet?

É uma lei com direitos e deveres para o uso da internet no país. O artigo 19 do marco, o principal a ser discutido pela corte, isenta as plataformas de responsabilidade por danos gerados pelo conteúdo de terceiros, ou seja, elas só estão sujeitas a pagar uma indenização, por exemplo, se não atenderem a uma ordem judicial de remoção.

Qual a discussão sobre esse artigo?

À época, a regra foi aprovada com a preocupação de assegurar a liberdade de expressão. Uma das justificativas é que as redes seriam estimuladas a remover conteúdos legítimos com o receio de serem responsabilizadas; por outro lado, críticos dizem que a regra desincentiva as empresas a combater conteúdo nocivo.

O que o supremo tem sinalizado sobre o assunto?

Sob reserva, membros do STF afirmam que o caminho mais provável a ser adotado é a definição de que as redes possuem o “dever de cuidado” quando as plataformas devem remover conteúdos criminosos sem a necessidade de decisão judicial.

O que tem impactado a análise do caso?

A atual tensão política no país tem influenciado o discurso dos magistrados ao se manifestar sobre o Marco Civil e a regulação das redes sociais. Após a série de conteúdos falsos sobre as urnas eletrônicas, os ataques golpistas de 8 de janeiro e o recente atentado a bomba na praça dos Três Poderes, o Supremo vê o caso como prioritário.

Há alguma proposta no lesgislativo sobre o assunto?

O Congresso discutia até 9 de abril o PL das Fake News, que também estabelecia o dever de cuidado às plataformas; ele ficou travado na Câmara dos Deputados após oposição das big techs e ameaças a congressistas. O presidente da Casa, Arthur Lira (PP-AL), decidiu que o texto seria rediscutido do zero, mas os debates até agora não foram iniciados.

Como a regulamentação das redes funciona em outros países?

  • Estados Unidos

A legislação imuniza as plataformas por conteúdos de terceiros, e também não responsabiliza as empresas caso o conteúdo seja removido em boa-fé; o texto foi criado para evitar que as redes sociais fossem processadas por qualquer conteúdo postado. Agora, projetos e ações na Justiça discutem ampliar a responsabilidade das plataformas.

  • União Europeia

O conjunto de leis do bloco estabelece que as redes só podem ser responsabilizadas por conteúdo de terceiros se souberem da existência dele e não remover, ou seja, só é necessário retirar a publicação, por exemplo, se receber uma denúncia de um usuário e não agir. Ainda, há uma série de obrigações que devem ser cumpridas pelas plataformas, como relatórios de transparência, e demonstração de conteúdos danosos removidos.

  • Reino Unido

Uma proposta aprovada em outubro de 2023 define que as plataformas terão o “dever de cuidado” de remover conteúdo ilegal mesmo antes de receberem denúncias; as empresas precisam garantir que seus próprios termos de uso são aplicados, e os usuários têm o direito de recorrer das decisões de moderação.

Reportagem distribuída pela Folhapress

Rádio Itatiaia

Ouça a rádio de Minas