Com a prerrogativa de combater as chamadas fake news, o PL 2630/2020, que cria a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, pode dar ainda mais poder para os gigantes digitais da comunicação e atacar frontalmente o direito à liberdade de expressão. O projeto, que vem sendo questionado por várias organizações que atuam em defesa dos direitos digitais, poderá ser votado nesta terça-feira 2, no Senado Federal.
Mesmo diante da complexidade e do impacto social do tema, o PL 2630/2020, de autoria do senador Alessandro Vieira (Cidadania/SE), vem tramitando a toque de caixa.
“A gente entende a urgência de se colocar fim às chamadas fake news. Essa prática, que ganhou proporções avassaladoras com o advento das redes sociais, manipula a formação da opinião pública e ataca a democracia. Mas devemos, sobretudo, observar a complexidade do tema e a necessidade de dar amplitude ao debate para que não incorramos no prejuízo de direitos humanos, como a liberdade de expressão”, avalia a secretária de Comunicação da CUT-DF, Ana Paula Cusinato.
Bia Barbosa, da Coalizão Direitos na Rede, afirma que formou-se uma polarização em torno do PL que se propõe a apontar saídas à disseminação de fake news, colocando de um lado os investigados pela produção industrial da desinformação e do outro opositores do governo Bolsonaro.
“É muito ruim que essa polarização tenha acontecido, porque a gente precisa sim de medidas eficazes para combater essas fake news, mas esse PL ainda tem muitos problemas e precisa ser modificado, senão ele pode mesmo resultar em censura privada pelas plataformas”, disse em vídeo divulgado nas redes sociais.
No último dia 28, a Coalizão Direitos na Rede publicou nota técnica sobre o PL 2630/2020, indicando questões preocupantes do projeto e apresentando alterações para mitigar esses prejuízos.
Um dos pontos mais criticados do PL 2630/2020 é a imposição de que as plataformas digitais remetam mensagens a “verificadores de fatos independentes” e definam o que é desinformação, tendo a obrigação de bloquear ou excluir conteúdos considerados como fake news, o que abre brecha para que a análise do que é desinformação seja feita inclusive de forma automatizada.
Ao mesmo tempo, o projeto responsabiliza essas plataformas por conteúdos de terceiros, desrespeitando o Marco Civil da Internet. Pela lei vigente, as plataformas só podem ser responsabilizadas por conteúdos de terceiros caso não removam conteúdo condenado por determinação judicial. O objetivo é justamente evitar a censura privada.
No manifesto “Democracia se constrói com informação de qualidade, sem censura e sem fake news”, publicado no último dia 27 e assinado pelo Fórum Nacional pela Democratização da Comunicação (FNDC), várias entidades representativas de diversos segmentos, veículos de comunicação e jornalistas, são destacados os perigos do PL 2630/2020.
“Alertamos para o perigo que representará para a democracia e para a liberdade de expressão conferir às plataformas privadas da internet a responsabilidade de definir que conteúdos são ou não verídicos, iniciativa que inclusive viola o Marco Civil da Internet. Tampouco podemos acreditar que agências privadas de checagem de notícias podem cumprir esse papel com isenção e neutralidade, ou que seja possível nomear grupos de jornalistas com o poder de classificar conteúdos jornalísticos produzidos por outros jornalistas”, cita trecho do documento que encerra com a seguinte afirmação: “não se combate ‘Fake News’ criando um Ministério da Verdade. Sabemos como isso acaba: com a tentativa de legitimação da censura”.
Especialistas ainda afirmam que o PL 2630/2020 está longe de ser a única forma de reparar danos às vítimas da desinformação. A advogada especializada em direito do consumidor, telecomunicações e direitos digitais Flávia Lefèvre, uma das conselheiras do Comitê Gestor da Internet no Brasil (CGI.Br), representando o terceiro setor, lembra que existe uma série de leis e dispositivos no ordenamento jurídico que poderiam estar “sendo usados de forma mais incisivas” no ambiente digital.
“Poderíamos estar usando o código de defesa do consumidor, por exemplo, pois não existe uma responsabilização mais incisiva para que as plataformas ofereçam um serviço mais seguro e protejam os nossos dados pessoais. Na época das eleições, por exemplo, o código eleitoral foi desrespeitado em diversos dispositivos. Temos ainda lei contra discurso de ódio. No que diz respeito à proteção de menores, a gente tem o estatuto da criança e do adolescente, com recomendações expressas de remoção de conteúdo da Internet. A gente tem muita coisa que, infelizmente, não é usada”, afirma Lefrève em live promovida pelo Intervozes no último dia 29.
A advogada ainda ponderou que há outros meios de responsabilizar as plataformas sem acarretar em censura privada. “Uma coisa é a gente querer mudar um princípio do Marco Civil da Internet e responsabilizar as plataformas por conteúdos de terceiros, o que a gente acha que é altamente indesejável porque vai comprometer a liberdade de expressão. A outra coisa é buscar reconhecer responsabilidades que as plataformas já têm por atos próprios, por práticas comerciais, por uso de algoritmos, por discriminações e uma série de questões que a gente entende que tem que ser discutidas”, disse.
No último dia 29, o CGI.Br publicou nota com posicionamento sobre o PL 2630/2020 e informou que encaminhou ofícios ao presidente da Câmara dos Deputados, Rodrigo Maia, ao presidente do Senado Federal, Davi Alcolumbre, e aos líderes dos partidos no Congresso Nacional recomendando que se amplie e aprofunde os debates, com a participação efetiva do CGI.Br e agentes interessados, antes que a matéria de “relevância para a garantia das instituições democráticas do país seja votada”.
Na linha da responsabilização das plataformas sem acarretar em censura privada, o pesquisador do Laboratório de Políticas de Comunicação (LaPCom) da Universidade de Brasília (UnB) Jonas Valente, dirigente sindical do Sindicato dos Jornalistas do DF, afirma que a cobrança certa a ser feita é a da transparência. Em live realizada pelo Intervozes, ele sugere que as plataformas explicitem as ações adotadas para moderação de conteúdo, publiquem o que foi feito com decisões judiciais, relatem o que foi feito com conteúdos verificados como desinformativos, tornem público o número de engajamentos. “A questão não é só a desiformação. A questão é como essas plataformas moderam todos os conteúdos, como elas fazem com que a gente se engaje mais, pegam os nossos dados e gerenciam o debate público. Não tem como dar para essas plataformas ainda mais poder”, pontua.
Outros problemas
Organizações que atuam em defesa da liberdade de expressão e do direito à comunicação também atentam para definições e conceitos trazidos pelo PL 2630/2020 que podem gerar interpretações diversas e, mais uma vez, desencadear a privação da liberdade de expressão.
Um desses conceitos é o da desinformação. Pelo projeto de lei, desinformação é “conteúdo, em parte ou no todo, inequivocamente falso ou enganoso, passível de verificação, colocado fora de contexto, manipulado ou forjado, com potencial de causar danos individuais ou coletivos, ressalvado o ânimo humorístico ou de paródia”. De acordo com o Coletivo Brasil de Comunicação Intervozes, a definição “dá margem a guerra virtual por ‘contexto’ correto, uma vez que estabelece como desinformação o conteúdo ‘colocado fora de contexto’”. O Intervozes propõem que desinformação seja definido como “conteúdo, em parte ou no todo, inequivocamente falso, forjado e divulgado para enganar deliberadamente o público e, cumulativamente, com potencial de causar danos individuais e coletivos ou prejuízo a direitos fundamentais, ressalvado o erro jornalístico, o ânimo humorístico ou de paródia”.
Outros dois conceitos problemáticos são os de “conta inautêntica” e “disseminadores artificiais”.
Pelo PL 2630/2020, “conta inautêntica” é uma “conta criada ou usada com o propósito de disseminar desinformação ou assumir identidade de terceira pessoa para enganar o público”. “Uma coisa não tem nada a ver com a outra. A conta do presidente da República agora vai ser considerada uma conta inautêntica?”, questiona Bia Barbosa, da Coalizão Direitos na Rede e da coordenação do Intervozes.
Ainda segundo o projeto e lei, “disseminadores artificiais” são “qualquer programa de computador ou tecnologia empregada para simular, substituir ou facilitar atividades de humanos na disseminação de conteúdo em aplicações de internet”, que remete aos bots/robôs. “Frisamos que é preciso conceituar rede de disseminação artificial como comportamento coordenado e articulado por intermédio de contas automatizadas não identificadas ou por tecnologia não fornecida pelo provedor de aplicação de internet com fim de impactar de forma artificial a distribuição de conteúdos”, sugere o Intervozes na síntese da análise do PL 2630/2020, que também compõem o texto de proposições apresentado pela Coalizão Direitos na Rede.
Jonas Valente, do LapCom, lembra que a utilização de robôs é necessária em vários espaços, como serviços públicos, por exemplo. Diante disso, uma das saídas apontadas para a utilização de robôs nas redes sociais recai, mais uma vez, na transparência. “Se eu vou criar uma conta automatizada, eu informo a plataforma e o público, e a plataforma sinaliza que aquela conta é artificial. Ou seja, no momento que eu estiver discutindo com alguém no Facebook, no Twitter, e alguém entrar fazendo um comentário, ou no momento que eu verificar uma postagem, eu vou saber se aquilo é uma pessoa ou um robô”, diz Valente.
Além desses pontos, o PL 2630 ainda não prevê meios para que o usuário que tenha sua postagem classificada como desinformação pela plataforma tenha o direito de se defender antes que a conta seja removida; e obriga aplicativos de mensagem, como WhatsApp, a identificar o que é conteúdo falso, o que põe em risco a criptografia e, consequentemente, a segurança e a privacidade das pessoas. Ao mesmo tempo, o projeto não proíbe a utilização de disparadores de mensagem em massa externo aos aplicativos de mensagens, indicados como um dos principais problemas na disseminação da desinformação nesse tipo de aplicativo.
Todos esses e outros pontos são destacados pelas organizações que compõem a Coalizão Direitos na Rede, seguidos de propostas para mitigar os prejuízos do PL. “Entendemos que a proposta da Coalizão Direitos na Rede consegue solucionar boa parte dos prejuízos do PL 2630/2020, mas este projeto não é aquele que defendemos para regulação de plataforma. É importante limitar o poder das plataformas em moderação excessiva, aquela não aderente aos padrões internacionais de direitos humanos, e isso o PL não traz. Não incluímos isso porque há uma pressão para celeridade no processo que impede uma contribuição mais qualificada que a redução de danos”, destaca a coordenadora do Coletivo Brasil de Comunicação Intervozes Marina Pita.
Fonte: CUT-DF