Projeto que tramita na Câmara prevê remoção de dados | Crédito: Divulgação

Brasília – O Projeto de Lei 1429/20 obriga empresas responsáveis por aplicações de internet, como sites, blogs, redes sociais e aplicativos de mensagem, a adotarem mecanismos de checagem e de correção de informações com o objetivo de evitar a propagação de conteúdo falso (fake news, em inglês).

Em análise na Câmara dos Deputados, o texto cria a Lei Brasileira de Liberdade, Responsabilidade e Transparência Digital.

O projeto determina a remoção de conteúdos com mais de 5 mil visualizações identificados como desinformação, e proíbe o uso de contas inautênticas (perfis falsos) e de robôs (bots ou botnets, em inglês) para simular ações humanas na internet.

As medidas devem, entretanto, respeitar a utilização lícita de apelidos pelos usuários e de algoritmos (bots) cuja atividade seja legítima e tenha sido comunicada previamente ao provedor da aplicação.

Um bot é uma conta virtual automatizada, geralmente em mídia social, executada por um algoritmo e não por uma pessoa real. O objetivo é “inflar” a popularidade de um assunto.

As três principais características de um bot são anonimato, grandes níveis de atividade e foco em usuários ou em tópicos específicos. Botnets são redes de bots comandadas por uma mesma pessoa ou grupo. Também existem bots legítimos, como robôs que varrem a internet indexando sites para serviços de busca, como o Google.

No caso de anúncios on-line, propaganda política patrocinada e conteúdos patrocinados (mensagens compartilhadas, principalmente em redes sociais, em troca de pagamento), o texto exige que o usuário da aplicação seja comunicado de que se trata de “impulsionamento”, ou seja, conteúdo pago ou promovido, identificando quem pagou pela divulgação. Também determina que o usuário seja direcionado para acessar os critérios usados na escolha do público-alvo do anúncio.

Propagandas políticas patrocinadas devem conter adicionalmente: informação se foi paga por um partido político, indicando qual, se houver; e dados sobre todos os anúncios e propagandas que o patrocinador realizou nos últimos 12 meses.

De forma isolada ou cumulativa, os provedores de aplicação que descumprirem as medidas poderão ser punidos com advertência, multa de até 10% do faturamento, suspensão temporária das atividades, ou proibição de exercício das atividades no País.

Desinformação – A proposta define como desinformação o conteúdo retirado de contexto ou manipulado por alguém com a finalidade de obter vantagem econômica, causar dano público – como fraude em eleição –, risco à democracia, à integridade de grupos identificados por raça, gênero, orientação sexual ou visão ideológica, ou ainda conteúdos capazes de provocar danos à saúde individual ou coletiva da população.

Autores do projeto, os deputados Felipe Rigoni (PSB-ES) e Tabata Amaral (PDT-SP) argumentam que as medidas se justificam porque as ameaças trazidas pela desinformação para o regime democrático são hoje potencializadas pela abrangência e pela velocidade com que os conteúdos circulam na internet.

“O combate à disseminação de informações inverídicas e não baseadas em evidências científicas sólidas representa uma proteção às instituições, à democracia, à honra pessoal e à saúde individual e coletiva da população, principalmente em tempos de pandemia de Covid-19”, diz a justificativa que acompanha o projeto.

O objetivo é “tratar a desinformação com mais informação,” e garantir que “informações factuais corretas cheguem a todos que são atingidos por fake news”. (As informações são da Agência Câmara de Notícias)

Provedores poderão compartilhar correções

Brasília – O Projeto de Lei 1429/20 determina a obrigação de provedores de aplicações de internet com receita bruta anual acima de R$ 78 milhões – a exemplo de Youtube, Facebook, Twitter, Instagram e Whatsapp – a encaminharem, dentro de 12 horas, conteúdos potencialmente falsos para a análise de verificadores independentes de fatos.

Para cada conteúdo com alcance significativo apurado como desinformação, os provedores de aplicação deverão compartilhar a correção sugerida a fim de abranger, no mínimo, o conjunto de pessoas atingidas inicialmente.

Esses verificadores, geralmente órgãos de imprensa, funcionariam como empresas de checagem não ligadas a governos ou partidos políticos. Pelo projeto, devem estar comprometidos com princípios como imparcialidade, precisão e transparência e precisam realizar a checagem dos fatos por pares de informação (os dois lados).

Além disso, devem identificar em site oficial o pessoal contratado e responsável pela verificação e cumprir integralmente o disposto no Código de Ética dos Jornalistas Brasileiros.

O provedor de aplicação pode escolher de qual verificador de fatos independentes irá emitir a correção para os usuários, devendo levar em consideração a reputação da entidade, bem como sua capacidade de corrigir de maneira mais eficiente a desinformação. É vedado o patrocínio de conteúdo verificado e revisado como desinformação.

Verificada a desinformação, o provedor da aplicação deverá desabilitar os recursos de transmissão e rotular o conteúdo como desinformação, inclusive em serviços de mensagens instantâneas.

O nome do criador original do conteúdo compartilhado também deverá ser informado, desde que a revelação esteja de acordo com o Marco Civil da Internet e respeite direitos fundamentais dos usuários, tais como a liberdade de expressão e a proteção de dados pessoais. As medidas proativas devem ser efetivas, proporcionais e não discriminatórias.

Os provedores de serviços de mensagens instantâneas, como Whatsapp e Telegram, inclusive os criptografados, devem mostrar aos usuários o produtor das mensagens escritas por terceiros e as mensagens que tiveram origem ou disseminação realizada por bots.

Os que fornecem mecanismos de transmissão em massa, por sua vez, devem requerer o consentimento do usuário antes de entregar as mensagens. O projeto obriga esses provedores a limitar a difusão e a informar seus usuários sobre conteúdo falso ou enganoso.

Ações de publicidade e comunicação governamental devem, necessariamente, segundo o texto, publicar informações baseadas em evidências científicas. A administração pública fica proibida de disseminar desinformação por meio de contas inautênticas, bots ou botnets.

Por fim, o texto altera a Lei de Improbidade para punir a disseminação de desinformação, por meio de contas inautênticas, bots ou botnets com pena que inclui o ressarcimento integral do dano (se houver), perda da função pública, suspensão dos direitos políticos, pagamento de multa civil de até cem vezes o valor da remuneração percebida pelo agente e proibição de contratar com o Poder Público ou receber benefícios ou incentivos fiscais ou creditícios por de três anos. (As informações são da Agência Câmara de Notícias)

Proposta prevê comunicação prévia ao usuário

Brasília – O Projeto de Lei 3119/20, do deputado Mário Negromonte Jr. (PP-BA), estabelece procedimentos para a remoção ou a redução do alcance de conteúdos e de perfis por provedores de aplicações de internet, como a prévia informação ao usuário.

O objetivo é evitar punições injustas que possam prejudicar o direito de as pessoas se expressarem e participarem do debate público.

A proposta tramita na Câmara dos Deputados e acrescenta os procedimentos ao Marco Civil da Internet (Lei 12.965/14). A lei atual faz menção apenas à remoção de conteúdos em razão de decisão judicial ou de casos de vingança pornográfica.

Em seu primeiro ponto, o projeto torna obrigatória a prévia informação ao perfil investigado, pelo provedor do aplicativo, da possível remoção ou redução do alcance de conteúdos ou perfis. Essa informação deverá ser clara e objetiva, mostrando as supostas violações das regras e políticas internas do aplicativo.

Após a notificação, o perfil investigado terá 24 horas para contestar a denúncia. O provedor deverá analisá-la imparcialmente, observando o contraditório e a ampla defesa.

Para não haver risco de que a análise seja feita por processos automatizados, a proposta estabelece que as remoções de perfil deverão ser confirmadas por pessoa natural. Dessa forma, caberá aos provedores de aplicativos identificar o setor da empresa responsável pela decisão.

Ainda segundo o projeto, o provedor será considerado civilmente e criminalmente responsável se a remoção ou redução do alcance de conteúdos ou perfis não obedecer às regras previstas.

Finalmente, para proteger a memória do processo, os provedores deverão arquivar o histórico dos procedimentos por pelo menos um ano após o encerramento de cada procedimento.

Moderador – Mário Negromonte Jr. argumenta que a internet e, principalmente, e as redes sociais se transformaram em importantes espaços públicos de discussão, mas que demandam a existência de um moderador, que costuma ser a própria rede social.

“Ao exercer tal atividade, porém, não é raro que as redes punam de forma excessiva ou indevida o discurso de um usuário ou interlocutor, seja por meio da remoção de conteúdos, seja pela redução do alcance desses mesmos conteúdos ou até pela supressão do próprio perfil do usuário”, argumenta o deputado. (As informações são da Agência Câmara de Notícias)